Aller au contenu

Notice sur les travaux scientifiques de Jean Perrin

La bibliothèque libre.

FONCTIONS ET TITRES

___________
  • 1891 Élève à l'École Normale.
  • 1895 Agrégé préparateur à l'École Normale.
  • 1897 Docteur ès sciences physiques.
  • 1898 Chargé de cours à la Sorbonne.
  • 1910 Professeur de Chimie physique à la Sorbonne.
  • 1911 Membre du Conseil Solvay de Physique (Bruxelles).
  • 1913 Professeur d'échange à New-York, Colombia University.
  • 1921 Membre du Conseil Solvay de Chimie (Bruxelles).
  • 1921 Membre du Conseil de l'Université de Paris.
___________
  • 1897 Prix Joule (Société royale de Londres).
  • 1910 Prix Vallauri (Académie des Sciences de Turin).
  • 1912 Médaille d'or de la Société italienne des Sciences.
  • 1922 Membre de l' Académie des Sciences de Turin.
  • 1918 Membre de la Société royale de Londres.
  • 1913 Docteur honoris causa de Colombia University.
  • 1919 Docteur honoris causa de l'Université de Manchester.
  • 1920 Membre de la « Royal Institution » (Londres).
  • 1922 Docteur honoris causa de l'Université d'Oxford.
  • 1922 Membre de l'Académie des Sciences de Stockholm.
___________
Lauréat de l’Institut :
  • 1910 Prix Gaston Planté.
  • 1913 Prix Henri de Parville.
  • 1914 Prix La Caze.
Présenté 2 fois en seconde ligne par la Section, en 1919 et 1921
___________
PUBLICATIONS 
___________

Rayons cathodiques et rayons X.

  • 1. Nouvelles propriétés des rayons cathodiques (Comptes rendus de l'Académie des Sciences, t. CXXI, 1895, p.1130).
  • 2. Quelques propriétés des rayons de Roentgen (Comptes rendus, t. CXXII, janvier 1896. p.186).
  • 3. Recherches expérimentales sur les rayons de Roentgen (Revue générale des Sciences, t. VII, 1896, p.66).
  • 4. Sur les rayons X (Bulletin de la Société internationale des Électriciens, t. XIII, 1896, p.51).
  • 5. Origine des rayons de Roentgen (Comptes rendus, t. CXXII, 1896, p.716).
  • 6. Rayons cathodiques, rayons X et radiations analogues (Conférence à la séance annuelle de la Société de Physique et Bulletin, 1896, p.121).
  • 7. Mécanisme de la décharge par les rayons de Roentgen (Éclairage électrique, t. VII, juin 1896, p.545, et Journal de Physique, t. V, 1896, p.350).
  • 8. Rôle du diélectrique dans la décharge par les rayons de Roentgen (Comptes rendus, t. CXXIII, 1896, p.351).
  • 9. Décharge des corps électrisés par les rayons de Roentgen (Bulletin de la Société internationale des Électriciens, t. XIII, 1896, p.399).
  • 10. Décharge par les rayons de Roentgen : influence de la pression et de la température (Comptes rendus, t. CXXIII, 1896, p.878).
  • 11. Décharge par les rayons de Roentgen. Rôle des surfaces frappées (Comptes rendus, t. CXXIV, 1897, p.455).
  • 12. Décharge par les rayons de Roentgen. Effet métal (Journal de Physique, t. VI, 1897, p.425).
  • 13. Application des rayons de Roentgen à la mesure des forces électromotrices de contact (Comptes rendus, t. CXXIV, 1897, p.496).
  • 14. RAYONS CATHODIQUES ET RAYONS DE ROENTGEN (Thèse de Doctorat, juin 1897, et Annales de Chimie et de Physique, t. XI, 1897, p.496-554).
  • 15. Décharge par les rayons de Roentgen. Effet secondaire (Comptes rendus, t. CXXVI, janvier 1898).
  • 16. Électrisation des rayons cathodiques et ionisation due aux rayons X (dans Ions, Électrons, Corpuscules, publié par la Société de Physique, 1905, p.558). Électrisation de contact.
  • 17. Conditions qui déterminent le sens et la grandeur de l'électrisation par contact. (Comptes rendus t. CXXXVI, 1903, p.1388).
  • 18. Électrisation par contact (II) (Comptes rendus, t. CXXXVI, 1903, p.1441).
  • 19. Électrisation par contact (III) (Comptes rendus, t. CXXXVII, 1903, p.513).
  • 20. Électrisation par contact (IV) et théorie des solutions colloïdales (Comptes rendus, t. CXXXVII, 1903, p.564).
  • 21. Mécanisme de l’électrisation de contact et solutions colloïdales (Journal de Chimie physique, t. II, 1904, p.601-651, et t. III, 1905, p.50-110).
  • 22. Le phénomène de Bose-Guillaume et l'électrisation de contact (Comptes rendus, t. CXL VII, juillet 1908, p.55). Atomistique.
  • 23. Les hypothèses moléculaires (Conférence aux Amis de l'Université de Paris, février 1901, et Revue scientifique t. XV, 1901, p.449-461).
  • 24. La discontinuité de la matière (Revue du Mois, t. I, 1906, p.323-344).
  • 25. L'agitation moléculaire et le mouvement brownien (Comptes rendus, t. CXLVI, mai 1908, p.967).
  • 26. La loi de Stokes et le mouvement brownien (Comptes rendus, t. CXLVII, 1908, p. 475)
  • 27. L 'origine du mouvement brownien (Comptes rendus, t. CXLVII, 1908, p.530).
  • 28. Grandeur des molécules et charge de l’électron (Comptes rendus, t. CXLVII, 1908, p.594).
  • 29. Peut-on peser un atome avec précision ? (Revue du Mois, t. VI, p.513-538).
  • 30. Mouvement brownien et molécules (Conférence faite à la séance annuelle de la Société de Physique, 15 avril 1909 ; Journal de Chimie physique, t. VIII, 1909, p.57-91, et Journal de Physique, janvier 1910). * 31. Mouvement brownien et constantes moléculaires (Comptes rendus, t. CXLIX, 6 septembre 1909).
  • 32. Le mouvement brownien de rotation (Comptes rendus, t. CXLIX, septembre 1909).
  • 33. Mouvement brownien et réalité moléculaire (Annales de Chimie et de Physique, 8e série; t. XVIII, septembre 1909, p.1-114). Traduit en anglais par Soddy (Brownian Movement, Taylor et Francis, Londres).
  • 34. Mouvement brownien et grandeurs moléculaires (Le Radium, t. VI, déc. 1909) Traduit en allemand dans Physikalische Zeitschrift.
  • 35. Molécules (Conférence à 1'École supérieure de Télégraphie ; Lumière électrique, t. X, p.298-323).
  • 36. Remarques au sujet de la centrifugation (Bulletin de la Société de Physique, 1910, p.42).
  • 37. Le mouvement brownien (Conférence à la Royal Institution, 24 février 1911).
  • 38. La réalité des molécules (Conférence aux Amis de l'Université de Paris, mars 1911, et Revue scientifique, 1911).
  • 39. Les déterminations des grandeurs moléculaires (Comptes rendus, t. CLII, 1911, p.1165).
  • 40. Les grandeurs moléculaires (nouvelles mesures) (Comptes rendus, t. CLII, 1911, p.1380).
  • 41. L'agitation moléculaire dans les fluides visqueux (Comptes rendus, t. CLII, 1911, p.1569).
  • 42. La réalité moléculaire (pages 1-53 du volume : Les idées modernes sur la constitution de la matière, publié par la Société de Physique, chez Gauthier-Villars, 1913).
  • 43. LES PREUVES DE LA REALITE MOLECULAIRE (étude spéciale des émulsions). Rapport lu au Conseil « Solvay », novembre 1911 (pages 153-251 de : La Théorie du rayonnement et des quanta, Gauthier-Villars, 1912).
  • 44. LES ATOMES (Félix Alcan, 1913). Traduit en allemand, en anglais, en polonais, en russe.
  • 45. Observations sur les lames minces (Conférence à la séance annuelle de la Société suisse de Physique et Société de Chimie physique à Paris, avril 1913).
  • 46. Compressibilité osmotique des émulsions considérées comme fluides à molécules visibles (Comptes rendus, t. CLVIII, avril 1914, p.1168).
  • 47. Quatre conférences sur les Fluides à molécules visibles (Université de Londres, mai 1914).
  • 48. La Fluorescence (Annales de Physique, 9e série, t. X, p.133 ; 1918).
  • 49. La Stratification des lames liquides (Annales de Physique. t. X, p.160 ; 1918).
  • 50. MATIERE ET LUMIERE (Annales de Physique, t. XI, p.1-108 ; 1919).
  • 51. Atomes et Lumière (Revue du Mois, 1920).
  • 52. Origine de la chaleur solaire (Scientia, 1921, et Société Astronomique).
  • 53. Radiation and Chemistry (Faraday Society, 1921).

Enseignement et publications diverses.

  • 54. Osmose et parois semi-perméables (Congrès international de Physique, t. I, p.531. Gauthier-Villars, 1900).
  • 55. LES PRINCIPES (Exposé de Thermodynamique, 300 pages, chez Gauthier-Villars, 1901).
  • 56. Le contenu essentiel des principes de la Thermodynamique (Bulletin de la Société française de Philosophie, t. VI, 1906, p.81-111).
  • 57. Le transport des ions et l'existence des hydrates (Bulletin de la Société de Physique, 1907, p.46).
  • 58. Production de champs magnétiques intenses au moyen de bobines sans fer (Bulletin de la Société de Physique, 19 avril 1907).
  • 59. Remarques sur la théorie de la balance (Revue sur l’enseignement des Sciences, t. II, 1908, p.17).
  • 60. Sur la prétendue anomalie des vitesses de cristallisation (Bulletin de la Société de Physique, 1909, p.20).
  • 61. La question des études secondaires (Conférence ; Revue pédagogique, t. LIX, 1911, p.113).
  • 62. Le Merveilleux scientifique (la Vie, 1912, p.248).

TABLES DES MATIÈRES ___________

  • Rayons cathodiques
  • Rayons X et ionisation des gaz
  • Énergétique
  • Couches électriques liquides
  • Mouvement brownien et réalité moléculaire
  • Pellicules liquides à structure feuilletée
  • Acoustique
  • Fluorescence
  • Radiochimie

TRAVAUX SCIENTIFIQUES

I RAYONS CATHODIQUES

Hittorf a montré que, lorsque la décharge électrique traverse un gaz raréfié, la cathode émet des rayons qui excitent de belles fluorescences sur les parois de verre où ils s'arrêtent, et qui sont déviés par les aimants (1869).

Crookes avait supposé, vers 1885, que ces rayons cathodiques sont décrits par des particules matérielles chargées d'électricité négative, donc repoussées par la cathode, qui ont acquis une vitesse énorme sous l'influence de cette répulsion. Mais beaucoup d'autres physiciens supposaient les rayons cathodiques formés par des oscillations de l'éther, peut-être longitudinales. Ainsi on hésitait, comme jadis pour la lumière, entre les deux théories de l'émission et des ondulations.

En fait, Crookes ne put pas mettre en évidence l'électrisation qu'il supposait. Hertz, cherchant à son tour à manifester les propriétés électriques et magnétiques des rayons supposés chargés, n'y réussit pas non plus, et admit décidément la théorie des ondulations quand il eut découvert que les rayons cathodiques peuvent traverser, sans les altérer, des pellicules de quelques microns d’épaisseur, ce qui lui semblait impossible pour des particules matérielles.

Lenard, développant ce dernier résultat, montra que ces rayons peuvent sortir du tube à décharge, en traversant une pellicule de métal ou de verre assez épaisse pour tenir la pression atmosphérique. C'est-à-dire que les rayons cathodiques traversent une feuille qui reste impénétrable aux molécules de l'air. Lenard crut ainsi avoir prouvé que la théorie de l'émission est inadmissible, et son opinion entraîna un instant l'adhésion des physiciens (1894).

Il me sembla pourtant que, s'il y avait des projectiles cathodiques, ils pouvaient différer assez des molécules, en taille et en vitesse, pour traverser une paroi imperméable aux molécules, et qu'avant de rejeter la théorie de Crookes, il fallait être sûr que les rayons cathodiques n'étaient pas électrisés. (Heureusement j'ignorais à ce moment que Hertz avait cru établir ce point.)

Or, l'introduction d'une charge électrique à l'intérieur d'une enceinte conductrice close se démontre sans incertitude possible. C'est même le meilleur moyen qu'on ait pour définir et mesurer ce qu'on entend par charge électrique. J'ai donc fait pénétrer des rayons cathodiques dans un « cylindre de Faraday », lié aux feuilles d'or d'un électroscope, et protégé contre toute «influence » par une enceinte métallique close qui fait partie de la « cage » de l'électroscope.(Cette précaution élémentaire est essentielle, et l'absence d'écrans protecteurs explique l'insuccès des tentatives de Crookes et de Hertz.)

J'ai alors aussitôt constaté que, dès que les rayons cathodiques, pénétrant dans l'enceinte protectrice par une petite « fenêtre », entrent dans le cylindre de Faraday, les feuilles d'or divergent, accusant une forte électrisation négative[1]. Cela, même si la fenêtre est fermée, comme dans les expériences de Lenard, par une feuille mince d'aluminium. En sorte que ces rayons pénètrent alors dans une enceinte métallique continue, entièrement close. Aucune charge n'arrive plus dans le cylindre, au contraire, dès que les rayons, faiblement déviés par un aimant, cessent de frapper la fenêtre.

Il y a donc de 1'électricité négative en mouvement le long de tout rayon cathodique, et qui ne peut en être séparée. Plus brièvement, on peut dire, comme le supposait la théorie de l'émission, que les rayons cathodiques sont de l'électricité négative en mouvement.

Ces expériences, sur lesquelles Lord Kelvin et Henri Poincaré ont aussitôt attiré l'attention[2], ont été reprises par Lenard (dont elles renversaient la théorie), par Wien et par J. J. Thomson (et ont ainsi servi de point de départ à d'importantes découvertes)[3]. Du moment que les rayons cathodiques sont chargés, ils peuvent être déviés par un champ électrique oblique ou normal à leur direction.

Ce que j'ai vérifié qualitativement[4]. J'ai vérifié de plus, cette fois avec mesures précises, que ces rayons sont ralentis, puis arrêtés, dans un champ parallèle à leur direction et de sens convenable.

J'ai pu mesurer[5] la différence de potentiel V qui arrête ainsi les projectiles négatifs. Différence de potentiel égale et contraire à celle qui, près de la cathode, avait donné à ces projectiles leur vitesse v. Soient e la charge, et m la masse du projectile cathodique. L'équation exprimant que l'énergie se conserve

e*V = 1/2*(m*v^2)

donnait une première relation entre le rapport de la charge à la masse, et la vitesse v.

Une seconde relation pouvait s'obtenir en mesurant le rayon du cercle que décrit un rayon cathodique dans un champ magnétique uniforme normal à sa direction. Je réalisai donc[6] un montage qui permettait des mesures précises de et de v. Mais, comme je commençais à faire ces mesures, j'appris que J.J. Thomson (qui, après avoir répété mon expérience, se trouvait également amené à mesurer ) m’avait devancé[7]. II trouvait une vitesse (variable selon les conditions de la décharge) de l'ordre de 70.000 km par seconde, et un rapport (invariant) plus que 1000 fois supérieur à ce qu’il est pour l'hydrogène dans l’électrolyse[8].

On sait que ce sont ces mesures qui ont conduit à reconnaître que le « corpuscule » cathodique, ou électron négatif, est un constituant primordial essentiel de tous les atomes. Et l'intérêt principal de mes expériences sur les rayons cathodiques me semble précisément d'avoir été un point de départ dans la chaîne d'expériences qui aujourd'hui ont définitivement établi l'existence de ce constituant universel de la matière.

II

RAYONS X ET IONISATION DES GAZ

Vers le milieu de janvier 1896, on apprit en France, par les journaux quotidiens, que Roentgen avait découvert un rayonnement émis par les tubes de Crookes, rayonnement qui excitait la fluorescence, impressionnait les plaques photographiques, donnait la silhouette des os à travers les corps, et qui, au contraire de toute lumière connue, pouvait traverser des plaques métalliques minces. Je crus à une exagération, mais, comme je me trouvais familiarisé avec la manipulation des tubes de Crookes, j’essayai, plutôt par jeu, de voir ce que pouvaient être ces « rayons X ». À ma grande surprise, en quelques heures, je retrouvais les résultats annoncés, et constatais de plus que les rayons X, rigoureusement rectilignes, ne se réfléchissent ni ne se réfractent ; enfin, et employant un dispositif suggéré par M. Brillouin, je ne pouvais non plus mettre en évidence une diffraction. Ces expériences (C.R., janvier 1896) n’eurent au reste que l’intérêt de confirmations rapides, comme on vit quand le mémoire de Roentgen parvint en France.

Je montrai de plus que les rayons X émanent des parois frappées par les rayons cathodiques, ce qu’affirmait Roentgen, sans en donner de preuve. Pour cela, opérant comme avec une chambre noire pour un objet lumineux, j’ai obtenu l’image des parties actives du tube à vide en plaçant une plaque sensible à quelques centimètres en arrière d’une plaque de laiton percée d’un petit trou, et située elle-même à quelques centimètres du tube. J’ai vu ainsi apparaître l’image des divers obstacles sur lesquels s’arrêtaient les rayons cathodiques[9].

Mais surtout j’ai étudié la « décharge des corps par les rayons X », phénomène découvert en même temps par Roentgen. J. J. Thomson, Benoît et Hurmuzescu, et Righi.

On sait qu’une charge électrique ne peut disparaître sans qu’une charge égale et de signe contraire disparaisse sur d’autres corps. Il ne peut donc arriver que les rayons X déchargent un seul conducteur, et il me semble qu’on ne pourrait comprendre le phénomène qu’à la condition de considérer les deux charges qui disparaissent en même temps.

J’ai toujours pris la précaution d’enfermer dans une caisse, recouverte de papier d’étain sur toutes ses faces, non seulement le tube d’où sortent les rayons, mais aussi la bobine de Ruhmkorff et les accumulateurs nécessaires. saires.

A ces conditions, la protection électrique est parfaite, et, par exemple, on peut faire jaillir dans la caisse de fortes étincelles sans influencer en rien l'électroscope ou l'électromètre employés.

Ayant alors appliqué contre une paroi de cette caisse une tôle épaisse pour arrêter les rayons, puis ayant placé un corps chargé derrière cette tôle à l'abri des rayons, nous pûmes observer, M. Langevin[10] et moi, que le corps se déchargeait encore rapidement. Cependant, les plus rapprochés des rayons qui sortaient de la caisse passaient à plus de 40 centimètres du corps.

Au contraire, nous supprimions toute décharge en disposant dans l'ombre de la tôle une feuille de papier d'étain, qui recevait toutes les lignes de force émanées du corps chargé.

Bref, nous avions ainsi prouvé que, lorsqu’il y a décharge par les rayons X, il suffit qu'une seule des deux surfaces toujours déchargées en même temps soit rencontrée par les rayons.

Même cette condition n'est pas nécessaire, et bientôt je montrai qu'il suffit, pour décharger un conducteur, que les rayons rencontrent en un point quelconque un des tubes de force qui en émanent, si du moins tout ce tube de force est situé dans un gaz.

Si en effet un pinceau étroit de rayons X passe entre les armatures d'un condensateur plan à anneau de garde, sans toucher ces armatures, le condensateur se décharge. Ce condensateur ne se décharge plus si, grâce à un déplacement de quelques millimètres, le pinceau de rayons, au lieu de rencontrer des tubes de force issus de la plaque centrale, rencontre seulement des tubes de force issus de l’anneau de garde[11].

Par une suite d'expériences de ce genre, j'ai établi sans doute possible que : Lorsque des rayons X traversent un gaz, ils engendrent sur leur passage, en quantités égales, des charges positives et négatives, qui se déplacent sous l'action d'un champ électrique, les charges positives dans le sens du champ et les charges négatives en sens inverse. Ces deux systèmes de charges décrivent ainsi les tubes de force où elles étaient d'abord contenues jusqu'à ce qu'elles atteignent les conducteurs où se terminent ces tubes, conducteurs qui se trouvent alors déchargés, ou jusqu 'à ce qu’elles soient mécaniquement arrêtées par une surface isolante solide ou liquide, qui se trouve alors chargée. L'action sur les corps électrisés se présente ainsi non comme une propriété proprement dite des rayons de Roentgen, mais comme la conséquence d'une « ionisation » que ces rayons font subir aux gaz qu'ils traversent[12].

Ce langage ne contient aucune hypothèse. Les charges créées dans les gaz ont une existence réelle, qui se manifeste non seulement aux extrémités des tubes de force où elles se meuvent, mais encore en un point quelconque de leur parcours, où elles peuvent être arrêtées et recueillies[13].

Si le gaz ionisé n'est pas soumis à un champ électrique, il y a recombinaison progressive des ions formés, et le gaz redevient bientôt isolant. Si au contraire le champ est assez intense, les ions des deux signes sont rapidement entraînés dans leur double mouvement inverse dans des régions séparées où ils échappent à la recombinaison. On mesure ainsi, à la limite, la quantité d'électricité dissociée dans le gaz, c'est-à-dire l'ionisation.

J'ai montré que, pour un même gaz, cette ionisation est proportionnelle à la pression. Les ionisations produites à la même pression dans des volumes égaux de divers gaz portent donc sur un même nombre de molécules, et mesurent les fragilités des molécules des divers gaz vis-à-vis des mêmes rayons X. J’avais mesuré (Thèse) quelques fragilités. Plus tard, J. J. Thomson, reprenant et étendant ce genre de mesures, a vu que l'ionisation d'une molécule est la somme de termes dus aux divers atomes qu'elle contient.

Effet des parois.

- Benoît et Hurmuzescu, en étudiant la décharge de corps électrisés concentrés par les rayons X, avaient trouvé que la nature de ces corps influe sur la vitesse de décharge. C'est même cela qui sans doute les empêcha de voir le rôle joué par le gaz.

Comme j'avais isolé cet effet dû au gaz, j'ai pu mesurer par une méthode différentielle l'effet dû aux parois frappées par les rayons. Pratiquement nul pour l'eau ou l'aluminium[14], il est notable pour le zinc, grand pour l'or ou le platine. Il dépend au reste du gaz, et les parois peuvent se classer dans un ordre différent selon le gaz où elles se trouvent.

Enfin, j'ai montré que l'ionisation due à la paroi frappée se produit au voisinage de cette paroi. Mais j'ai eu le tort de croire cette ionisation limitée à une couche infiniment mince. MM. Curie et Sagnac ont, en effet, prouvé postérieurement que le métal frappé émet des rayons cathodiques très absorbables, à l'action desquels est due, pour la plus grande part, l'ionisation supplémentaire[15].

Les belles recherches de C. T. R. Wilson (1912) ont au reste ramené à ce type d'ionisation par intermédiaire de rayons cathodiques très ionisants et très absorbables, l'action des rayons X sur les gaz eux-mêmes. Des photographies directes de gouttelettes condensées sur les ions formés montrent que ces ions, au lieu d'être irrégulièrement distribués dans le volume traversé par les rayons X, sont engendrés seulement tout le long de certaines lignes qui apparaissent sous l'aspect de filaments blancs, incurvés ou repliés comme des bouts de ficelle de longueur définie.

L'ensemble de ces filaments dessine de façon grossière le trajet des rayons X et chacun d'eux marque le trajet d'un rayon cathodique absorbable arraché par les rayons X à une molécule par une ionisation primaire très rare, mais très violente. Ainsi se trouve précisé le phénomène que j'avais commencé à analyser.

III ÉNERGÉTIQUE

Chargé après ma thèse, en 1898, d'organiser à la Sorbonne un enseignement de Chimie physique, j'ai commencé par visiter des laboratoires étrangers. Mes expériences se trouvèrent interrompues, et je ne recommençai de recherches suivies qu'en 1903. Dans l'intervalle, je m'étais occupé du nouvel enseignement, et j'avais organisé le petit laboratoire où je devais plus tard avoir des élèves, mais où j’eus l'honneur de pouvoir tout de suite donner des moyens de travail à des amis tels que G. Urbain, qui y a fait de belles recherches sur la séparation des terres rares, et Debierne, qui y a découvert et étudié l'actinium.

En 1901, j'ai publié un livre[16] où j'ai tâché d'exposer et de préciser les principes qui sont à la base des sciences physiques, principes qui ont ceci de commun que chacun d'eux peut être suggéré par la seule comparaison des faits connus, sans que jamais on ait besoin de se représenter le monde autrement qu'il ne nous apparaît. L'absence d’hypothèses sur ce qui nous est caché, et l'application constante de « l'intelligence des analogies » aux données de la sensation, caractérisent la méthode inductive qui a ainsi créé l'Énergétique, par opposition à la méthode intuitive qui, en «devinant » des structures encore invisibles, a donné l'Atomistique.

Je me suis efforcé, dans mon exposé de l'Énergétique, d'améliorer l'enchaînement des idées, tout en réduisant le rôle des calculs.

Pour exposer le premier principe, j'ai introduit la notion de changement, définie par l'état initial et l'état final du système. Il est des changements qui ont forcément une répercussion extérieure (c'est ainsi qu'il faut nécessairement payer l'élévation d'un ascenseur et payer d'autant plus cher qu'il est plus lourd et monte plus haut, par exemple payer par l'abaissement d'une certaine masse d'eau, chacun des deux changements, abaissement et élévation, étant l'unique répercussion de l’autre). D'autre part, certains changements « indifférents » (tel le déplacement d'un poids sur un plan horizontal) ne coûtent rien, et enfin certains changements « instables » peuvent disparaître spontanément sans répercussion extérieure (telle la compression isotherme d'un gaz qui disparaît par une détente de Joule).

Cela dit, et comme généralisation d'énoncés partiels qui portent sur l'équivalence des mécanismes, la calorimétrie, et la production de chaleur par travail, j'ai obtenu l'énoncé suivant du premier principe :

Si, avec un certain dispositif, on sait enchaîner deux changements de façon que chacun d'eux soit l'unique répercussion de l'autre, il n'arrivera jamais, quel que soit le dispositif employé, qu'on obtienne comme effet extérieur de l'un d'eux, d'abord l'autre, et en surplus un changement supplémentaire, à moins que ce dernier ne soit instable ou indifférent.

J'ai montré comment on pouvait alors mesurer les changements, et que cela revient à mesurer les variations de ce qu'on appelle l'énergie interne. Cet exposé du premier principe de la Thermodynamique a pris une importance nouvelle depuis qu'il a été prouvé par M. Langevin qu'il est le seul qui résiste aux conditions imposées par la Théorie de la Relativité. J’ai de même été conduit (ici sous l'influence de M. Langevin) à modifier l'exposition du second principe.

Ayant observé qu’on peut chauffer de l'eau en laissant tomber un poids (Joule), il ne paraît d'abord pas absurde qu'on puisse remonter le poids en refroidissant l'eau. En fait, de quelque manière qu'on s'y prenne, cela ne peut être réalisé. Plus généralement, nous accepterons comme « second principe » la proposition suivante : « Quand un changement est spontanément réalisable, son inverse ne l'est pas. » Ou, sous une forme équivalente et plus intuitive: Un système isolé ne repasse jamais par un état antérieur.

Ainsi le second principe apparaît comme un principe d'évolution. Je ne peux résumer ici la discussion qui justifie cette façon de voir et qui donne de façon simple les diverses notions liées au second principe (énergie utilisable, entropie). Enfin, après un Chapitre relatif aux caractères de l'équilibre stable (potentiels thermodynamiques), j'ai consacré les deux derniers chapitres du livre à l'exposition simplifiée des travaux de Gibbs sur le Potentiel chimique et la Règle des Phases.

IV COUCHES ÉLECTRIQUES LIQUIDES (OSMOSE ÉLECTRIQUE ET COLLOÏDES).

J'avais remarqué, au cours de mon enseignement, une obscurité dans le raisonnement classique donné par Hittorf pour obtenir «le rapport des vitesses des ions d'un électrolyte » à partir des variations de concentrations près des électrodes. Car il faut dire à quoi on rapporte une vitesse, et Hittorf a négligé de dire à quel système de référence il rapporte les mouvements des ions. En fait, il ne l'a probable ment pas vu, imaginant sans doute implicitement qu'il les rapportait au solvant, ce qui est faux [17].

Le choix du système de référence serait simple si l'on pouvait immobiliser le solvant par rapport aux parois (évitant donc les reflux dus aux électrodes). J'espérais atteindre ce but en intercalant un diaphragme poreux dans l'électrolyte, en vue d'empêcher le déplacement d'ensemble de cet électrolyte. Et je vis avec surprise que c'était là au contraire un moyen de provoquer un très fort déplacement d'ensemble.

J'avais été ainsi conduit, comme on voit, à découvrir de nouveau l'osmose électrique, phénomène bien connu déjà, mais qu'en fait j'ignorais complètement. Cela n'aurait pas eu d'intérêt si, comme il arrive parfois quand on applique une technique nouvelle à l'observation d'un fait connu, je n'avais pas trouvé des faits nouveaux, d'où l'on tire des règles intéressantes relatives à l'osmose électrique et à l'électrisation de contact en milieu liquide. J'ai laissé alors de côté le problème du transport des ions[18] et porté mon attention sur cette électrisation.

*
*   *

Cinq phénomènes étroitement connexes se rattachent à l'électrisation de contact en milieu liquide.

1° Osmose électrique. Sous sa forme la mieux connue, l'osmose électrique peut se définir comme il suit :

Si l'on partage une solution aqueuse en deux régions par un diaphragme poreux, et si l'on crée une différence de potentiel entre ces deux régions, le liquide se met aussitôt à filtrer au travers du diaphragme. Le débit est proportionnel au champ électrique, et indépendant de l'épaisseur du diaphragme.

Il ne s'agit pas là d'un phénomène difficilement observable, car on réalise aisément des conditions telles que 100 grammes d'eau traversent la paroi poreuse à la faveur d'un courant électrique, qui, dans le même temps, libère seulement l milligramme d'hydrogène.

Le diaphragme peut se réduire à un tube capillaire unique (ou un faisceau parallèle de ces tubes), ce qui permet, le plus clairement, de comprendre (Quincke) comment le phénomène s'explique par une électrisation de contact entre le liquide et la paroi, correspondant à la formation d'une couche double dont un feuillet, situé dans le liquide, détermine par frottement, sous l'action du champ électrique, le glissement du liquide contenu dans le tube.

Cela suppose que les éléments électrisés de cette couche, puisqu'ils sont mobiles, ne sont pas au contact immédiat de la paroi, ne sont pas comme collés sur cette paroi. A densité égale, en conséquence des lois du frottement intérieur ils agiront d'autant plus qu'ils seront plus éloignés.

2° Réciproquement, en créant une différence de pression entre deux masses liquides séparées par un diaphragme, ce qui entraîne, par filtration du liquide au travers du diaphragme, un excès de charges électriques de l'un des côtés, on crée une différence de potentiel (force électromotrice de filtration).

3° Si enfin on suppose pulvérisée et en suspension dans le liquide la matière de la paroi, les particules se transportent sous l'action d'un champ dans le sens inverse de celui où se produirait l'osmose (transport électrique des poussières dans un liquide, ou cataphorèse).

4° Si, en l'absence d'un champ, de telles poussières chargées tombent dans un liquide, elles créeront, inversement, par suite de charges laissées derrière elles dans cette sorte de filtration, une différence de potentiel (force électromotrice par déplacement de poussières).

5° A distance notable l'une de l'autre, deux poussières, chacune enveloppée de sa couche double, n'agissent pas électriquement l'une sur l'autre, mais, si elles s'approchent à une distance inférieure au double de l'épaisseur de la couche double, les couches liquides électrisées sont refoulées latéralement, et une répulsion électrique des deux particules se produit, par interaction des couches électriques de même nom. Ce phénomène a pu être mis en évidence, comme nous verrons plus loin, dans des émulsions de gomme-gutte où l'épaisseur de la couche double est de l’ordre des grandeurs microscopiques. Cela expliquera pour une part la stabilité des solutions colloïdales.

Ces cinq phénomènes, qui impliquent tous glissement ou déplacement, l’un par rapport à l'autre, des deux feuillets d'une couche double, sont étroitement connexes. Ils renseignent par leur importance sur l'électrisation qu'un liquide donné et une substance donnée prennent au contact l'un de l'autre. Mais j'insiste sur ce point qu'une électrisation de contact ne permettrait aucun de ces phénomènes, même pour une densité électrique considérable, si l'épaisseur de la couche double était trop faible pour que les charges les plus éloignées de la paroi puissent être considérées comme mobiles.

En d'autres termes, une couche double « épaisse » dont un feuillet est situé dans le liquide assez loin de la paroi pour pouvoir être appelé une couche électrique liquide, constitue l'électrisation de contact d'espèce particulière qui explique l'osmose électrique, les forces électromotrices de filtration, le transport de poussières par le champ, la création de champ par le mouvement de poussières, et la répulsion électrique de deux poussières.

*
*   *

Or, on ne savait rien prévoir sur la grandeur et même sur le signe de ces phénomènes. J'ai pu trouver à cet égard des règles simples, et montrer que ces règles expliquent, pour les suspensions ou les colloïdes, des propriétés qui jouent un rôle important dans les sciences naturelles[19].

J'ai employé un dispositif qui permet de ne pas se limiter aux cloisons poreuses ordinaires, et d'étudier l'électrisation de contact d'un liquide et d'un solide (isolant) quelconque. L'appareil est une sorte de tube en U, démontable en trois parties assemblées par des rodages. La partie moyenne contient le diaphragme, formé par la substance étudiée, réduite à un haut degré de division (poudre ou filaments), tassée sur une longueur d'une douzaine de centimètres, et longuement lavée avec le liquide essayé. Deux prises de potentiel sont placées immédiatement de part et d'autre de ce diaphragme, où le champ est donc exactement connu. La mesure des débits ne présente pas de difficultés.

J'ai été ainsi conduit à énoncer les règles suivantes :

Règles d’électrisation par contact.

1° Les liquides ionisants donnent seuls une forte osmose électrique. On savait que l'osmose électrique s'observe avec l'alcool comme avec l'eau. Mais on n'avait pas donné de règle permettant de prévoir si, pour un dissolvant donné, l'osmose électrique sera forte ou faible.

Une telle règle ne peut être absolue, puisque, ainsi qu'on va voir, des impuretés minimes peuvent changer la rapidité ou même renverser le sens de l'osmose à travers un diaphragme donné. Pourtant, quand on fait de nombreux essais, on constate que, pour les liquides ionisants (eau, alcools, nitrobenzine, ammoniac liquide, etc.) additionnés ou non d'électrolytes, l'osmose est en général notable, tandis que pour les autres (éther, benzine, sulfure de carbone, etc.) elle est insignifiante (au moins 200 fois plus faible) si elle existe.

Comme les liquides ionisants, même soigneusement purifiés, gardent une conductibilité notable, c'est-à-dire contiennent des ions, il est à présumer que ce sont des ions qui forment la couche décelée par l'osmose, et que leur effet peut être considérable, même en solution très di1uée.

J'ai alors cherché à déterminer, dans le cas de l'eau, quels ions sont actifs.

2° Les ions H + et OH -, constitutifs de l'eau, et caractéristiques des acides et des bases, chargent fortement les parois.

J'ai vu, en effet; qu'une paroi quelconque (charbon, soufre, carborundum, naphtaline, gélatine, soie, chlorure de chrome, etc.) se charge positivement dans de l'eau rendue même très faiblement acide par un acide monovalent quelconque, et se charge négativement dans de l'eau rendue même très faiblement alcaline par une base monovalente quelconque.

La sensibilité de cet « indicateur » physique peut dépasser la sensibilité du tournesol (c'est le cas pour la poudre de charbon).

Les autres ions monovalents (K+, Na+, NH4+, Cl-, Br-, NO3-, etc.) ne chargent pas (appréciablement) les parois.

3° Si un ion polyvalent présent dans la liqueur a le même signe que l’ion actif H + ou OH - présent, il n'a pas d'influence sur la charge.

Par exemple , l'addition de ferricyanure (FeCy6---) en milieu alcalin n'accroît pas la charge négative de la paroi, même si l'alcalinité est tellement petite que l'électrisation négative de la paroi soit très faible.

4° Si un ion polyvalent présent dans la liqueur est de signe opposé à l’ion actif (H +ou OH -) présent, il est« mordancé » contre la paroi par cet ion actif, diminuant ainsi la charge de la paroi, et d'autant plus que la charge est plus élevée. La diminution peut aller jusqu'au renversement du signe.

Par exemple, une trace de ferrocyanure, qui n'avait pas d'action en milieu alcalin sur une paroi même très faiblement négative, rend fortement négative cette paroi dans un milieu acide qui par lui-même la chargerait positivement.

Je ne discuterai pas ici comment on peut, d'un point de vue atomistique, s'expliquer que les ions constitutifs du solvant[20] s'accumulent sur la périphérie du liquide[21] en mordançant contre cette périphérie les ions polyvalents du signe opposé[22]. Et je me borne à constater que les règles données sont claires, et qu'elles ont reçu des vérifications sans cesse plus nombreuses[23]. Elles ont été notamment étendues au cas où la paroi se réduit à la surface libre même, en contact avec divers gaz[24] (azote, hydrogène, etc.).

Et elles ont encore été retrouvées pour des surfaces métalliques (Mäkelt) d'après le signe de la force électromotrice engendrée par la chute de poussières métalliques dans la solution aqueuse étudiée.

La charge de toute paroi par H + ou OH -, avec mordançage éventuel d'ions polyvalents est le phénomène général, où la paroi ne joue point de rôle[25]. A ce phénomène toujours présent pourra se superposer une action propre de la paroi qui par exemple peut émettre, ou fixer chimiquement, certains ions, ce qui déplacera la teneur en acide ou base pour laquelle la paroi est neutre. (Même il peut arriver que le point de neutralité ne puisse être atteint.)

Pour la silice, par exemple, une « dissociation superficielle » charge la surface négativement ; à cette électrisation négative se superpose celle, positive ou négative, due à la présence d'ions H + ou OH - dans la liqueur ; on comprend ainsi comment la silice, très fortement négative en milieu alcalin, devient très faiblement négative ou neutre en milieu acide, sans que son signe se renverse[26].

Et l'on comprend aussi que deux particules ultramicroscopiques de silice, en suspension dans l'eau, ne se souderont pas en milieu alcalin (en raison de la forte répulsion électrique qui les empêchera de s'approcher beaucoup plus près que la double épaisseur de la couche double) et se colleront par cohésion en milieu acide, l'électrisation étant alors devenue pratiquement nulle, mais comment l'électrisation des « micelles » est une cause de stabilité des solutions colloïdales, et comment la diminution des charges peut amener la coagulation.

CONSÉQUENCES

Les règles d'électrisation que j'ai données, en elles-mêmes curieuses, paraissent jeter quelque clarté en des problèmes importants de Chimie physique, de Géologie et même de Biologie.

J'ai suggéré qu'elles doivent intervenir dans les tensions superficielles, dans l'entraînement de matières solubles par les précipités et dans les « teintures ».

Des recherches ont suivi pour ces divers phénomènes[27].

En ce qui regarde la Géologie, il suffit d'observer que ces même règles d'électrisation expliquent la sédimentation qui se produit à l'embouchure de nombreux fleuves (barres et deltas). Ces fleuves entraînent en suspension (ou en solution colloïdale) des particules ténues siliceuses qui, chargées négativement, ne s'agglomèrent pas dans l'eau douce. Dès que le fleuve entre dans la mer où se trouvent des ions magnésium et calcium (bivalents positifs), les micelles siliceuses deviennent pratiquement neutres et s’agglutinent.

On comprend de même l'importance évidente que toute connaissance des règles d'électrisation prend et prendra dans la connaissance des solutions colloïdales et des conditions de leur précipitation. L'électrisation des « micelles » est, en effet, un facteur stabilisant de ces solutions.

Cette même électrisation de contact a un rôle capital en Biologie : la subsistance d'un protoplasma, insoluble, à structure spongieuse indéfiniment déchiquetée, résulte d'un équilibre entre cette électrisation de contact (cause de dislocation et d'accroissement de surface) et la cohésion (cause d'agglutination). On sait, à ce propos, la sensibilité extrême des cellules vivantes à des traces d'acide ou d'alcali. Une autre application biologique a été établie par Girard. Il s'agit du passage des constituants de solutions étendues au travers de membranes telles que la vessie de porc (osmose ordinaire). Reprenant et développant d'anciennes observations de Graham, Girard a prouvé que la présence d'ions H + ou OH - éventuellement contrariée par des ions polyvalents de signe opposé (selon les règles précédentes) est un facteur prédominant dans cette osmose, et par suite dans les échanges (si importants) qui se produisent au travers des membranes des divers organismes[28].

V MOUVEMENT BROWNIEN ET RÉALITE DES MOLÉCULES

Les hypothèses moléculaires, qui triomphent aujourd'hui, étaient il y a vingt ans regardées comme chimériques par beaucoup de physiciens et de chimistes. A diverses reprises, en ce temps où les énergétistes des écoles d’Ostwald ou de Duhem s'élevaient contre ces hypothèses qu'ils déclaraient inutiles et sans fondement, j'avais été de ceux qui persistaient à défendre les conceptions atomistiques[29].

D'autre part, l'observation microscopique des colloïdes et des suspensions m'avait familiarisé avec le mouvement brownien, et me donna bientôt la possibilité d'une vérification quantitative directe des théories moléculaires, qui a contribué à les faire accepter.

On sait en quoi consiste ce MOUVEMENT BROWNIEN. Quand on observe au microscope une particule inanimée quelconque au sein d'un fluide « en équilibre » contenu dans une petite cuve immobile et fermée, on constate que cette particule ne demeure jamais en repos : elle va, vient, monte, descend, remonte, tournoie, dans une agitation parfaitement irrégulière, qui, à température constante, garde indéfiniment la même activité moyenne, et qui est d'autant plus vive que la particule est plus petite. Nulle cause extérieure n'intervient, et l'on est forcé de conclure avec Wiener (1863) que l'agitation est causée « par des mouvements internes caractéristiques de l'état fluide », que la particule suit d'autant plus fidèlement qu'elle est plus petite. C'est là un caractère profond de ce qu'on appelle un fluide en équilibre. Son repos apparent n'est qu’une illusion due à l'imperfection de nos sens et correspond à un certain régime permanent d'agitation intime, violente et désordonnée.

Un petit nombre de physiciens connurent et comprirent l'importance de cette propriété générale des fluides, et pensèrent que le mouvement brownien pouvait être une conséquence, déjà perceptible par nous, de l'agitation moléculaire imaginée depuis longtemps[30]. En tout cas, s'il y a des molé cules, le mouvement brownien démontre qu'elles s'agitent sans cesse.

Théories moléculaires.

– Résumons ce qu'on disait par ailleurs de ces molécules : D'abord, si elles existent, si de façon plus précise il y a des molécules d'une sorte définie pour chaque espèce chimique, les lois de discontinuité chimique (Lavoisier, Proust et Dalton) imposent la notion d'atomes d'une sorte définie pour chaque corps simple.

Les rapports de poids de ces atomes, pour beaucoup de corps simples, sont alors obtenus par les analogies chimiques ou physiques (réactions analogues, isomorphisme, chaleurs spécifiques). C'est le cas des halogènes (chlore, brome, iode). Si donc nous prenons des masses de ces halogènes qui sont dans les rapports connus de leurs poids atomiques, elles contiennent chacune autant d'atomes.

Du même coup, nous savons donc prendre pour les trois acides chlorhydrique, bromhydrique, iodhydrique, des masses qui contiennent autant d'atomes de chacun des trois halogènes. Mais les molécules de ces acides très analogues doivent elles-mêmes contenir le même nombre défini d'atomes d'halogène. Donc nos masses des trois acides contiennent autant de molécules l'une que l'autre ; or on vérifie qu'elles occupent à l'état gazeux le même volume dans les mêmes conditions de température et de pression. La généralisation expérimentale de celte propriété si remarquable donne, sous forme de loi[31], la célèbre hypothèse d'Avogadro :

Deux masses gazeuses qui développent dans le même volume la même pression à la même température sont formées par des nombres égaux de molécules.

Loi qui donne évidemment, par des mesures de densité, les rapports des poids des molécules. Et qui permet de déterminer, comme on sait, ceux des rapports de poids atomiques que les analogies laissent encore incertains (celui de l'oxygène à l'hydrogène entre autres).

Appelant, selon l'usage, molécule -gramme d'un corps la masse de ce corps qui dans l'état gazeux occupe même volume que 32 grammes d'oxygène (à la même température et à la même pression) et atome-gramme d'un corps simple la plus petite masse de ce corps qui peut exister dans une molécule-gramme, on voit que les diverses molécules-gramme contiennent le même nombre N de molécules et les divers atomes-gramme ce même nombre N d'atomes. C'est le nombre d'Avogadro. La connaissance de ce nombre entraînerait évidemment celle des masses de s atomes et des molécules.

La théorie cinétique des gaz permettait précisément de se faire au moins une idée sur la valeur de ce nombre d'Avogadro.

Nous avons dit que le mouvement brownien démontre l'agitation constante des molécules. Avant de le connaître, on avait déjà supposé, pour rendre compte des propriétés des gaz, que les molécules s'agitent sans cesse. Cette agitation, qui produit, par suite des chocs moléculaires, la pression subie par toute paroi qui limite le fluide, doit s'activer quand la température s'élève, puisque cette pression grandit alors, mais elle reste indéfiniment la même à température constante. Et l'existence même d'un tel régime permanent d'agitation implique, pour les molécules d'une même sorte, une vitesse moyenne parfaitement définie.

Cette vitesse moyenne (de l'ordre du kilomètre par seconde) se déduit soit de la pression que développe une masse gazeuse donnée dans un volume connu (Joule), soit de la largeur mesurable qu'imposent aux raies spectrale s le fait que les molécules vibrantes s'approchent ou s'éloignent de l'oeil (Rayleigh).

D'autre part, la viscosité mesurable des gaz a permis à Maxwell de calculer approximativement la longueur du chemin (de l'ordre du dixième de micron dans les conditions ordinaires) que parcourt en moyenne une molécule entre deux chocs. Et ce libre parcours moléculaire moyen une fois calculé, évidemment d'autant plus faible que la molécule est plus grosse, permet à son tour de calculer une valeur approchée de la surface totale des molécules qui forment une masse donnée de gaz (Clausius).

Le volume total de ces mêmes molécules peut enfin être à peu près connu, soit en admettant qu'elles se touchent pratiquement quand le corps est liquide et froid, soit en le déduisant, suivant l'équation de Van der Waals, de la compressibilité du corps dans l'état fluide (non gazeux).

Connaître la surface et le volume du nombre inconnu de molécules qui constituent une masse donnée c'est avoir deux équations qui donnent de façon évidente le diamètre moléculaire (de l'ordre du tiers de millimicron), et le nombre des molécules de la masse. Pour une molécule -gramme, ce nombre N, ou nombre d'Avogadro, se trouvait par là devoir être voisin de 60.1022, l’incertitude étant largement de 50 pour 100. La masse absolue de chaque molécule, ou de chaque atome, s'ensuit immédiatement.

On conçoit, par cet exposé condensé, comment, s'il existe des molécules, il faut, pour accorder cette existence avec les mesures faites sur la viscosité des gaz, attribuer certaines valeurs définies aux masses de ces molécules. Ceci ne juge pas encore la théorie. Mais, pour accorder l'existence des mêmes molécules avec les observations relatives au mouvement brownien, il nous faudra sans doute encore leur attribuer certaines masses définies. Une contradiction serait un grave embarras. Une convergence, au contraire, nous donnera grande confiance et dans l’existence des molécules, et dans la valeur des hypothèses complémentaires introduites dans la théorie cinétique.

Nous allons voir qu'en effet le mouvement brownien, formant un intermédiaire accessible entre nos dimensions et celles des molécules, nous donne le moyen d'atteindre ces dernières, et de façon beaucoup plus simple que n’avait pu faire la théorie cinétique.

Extension des lois des gaz aux émulsions diluées et détermination du nombre d’Avogadro.

On sait comment les lois des gaz ont été étendues par Van't Hoff aux solutions diluées. Il faut, bien entendu, considérer alors, non la pression totale exercée sur les parois, mais seulement la part de cette pression qui est due aux chocs des molécules dissoutes, qu'on appelle pression osmotique (et qu'on peut mesurer quand on sait réaliser une paroi semi-perméable qui arrête les molécules du corps dissous et n'arrête pas celles du solvant). Les lois des gaz, ainsi élargies, et compte tenu de la loi d'Avogadro, peuvent s'énoncer.

Dans l'état dilué, gazeux ou dissous, des nombres égaux de molécules quelconques, enfermées dans des volumes égaux à la même température, y produisent la même pression. Cette pression varie en raison inverse du volume occupé ; elle est proportionnelle à la température absolue.

Ces lois sont applicables à toutes les molécules, grosses ou petites ; cela résulte, soit des mesures directes de pressions osmotiques, soit plutôt de la vérification des lois de Raoult (lois qu'on peut déduire des lois de Van't Hoff). La lourde molécule de sucre, qui contient 45 atomes, celle de sulfate de quinine, qui en contient plus de 100, ne comptent ni plus ni moins que l'agile molécule d'hydrogène.

N'est-il pas alors supposable qu'il n'y ait aucune limite de grosseur pour l'assemblage d’atomes qui vérifie ces lois ? N'est-il pas supposable que même des particules déjà visibles les vérifient encore exactement, en sorte qu'un granule agité par le mouvement brownien ne compte ni plus ni moins qu'une molécule d' hydrogène en ce qui regarde l'action de ces chocs sur une paroi qui l'arrête ?

S'il en était ainsi, les lois des gaz parfaits s'étendraient aux ÉMULSIONS, qui sont faites de grains visibles.

C'est en effet ce que j'ai pu vérifier.

Non pas, bien entendu, en mesurant directement les pressions prodigieusement faibles qu'exercent des granules visibles contre les parois, mais en vérifiant des propriétés logiquement équivalentes aux lois des gaz et facilement accessibles à la mesure.

Colonne verticale de matière diluée.

– On sait que l'air se raréfie quand on s'élève. Pour un gaz à température constante, la loi de raréfaction se déduit simplement des lois des gaz[32], et réciproquement on pourrait les en déduire ; elle leur est logiquement équivalente.

On connaît cette loi : chaque fois qu'on s'élève d'une même hauteur, la densité est diminuée d'une même fraction de sa valeur. (Par exemple, dans de l'oxygène à 0°, chaque fois qu'on s'élève de 5 kilomètres, la densité devient moitié moindre.) Et, de plus, l'élévation qui entraîne une raréfaction donnée varie en raison inverse du poids de la molécule-gramme. (Par exemple, pour doubler la raréfaction, il faut s'élever 16 fois plus dans l'hydrogène que dans l'oxygène.)

Si les lois des gaz s'étendent aux émulsions, on pourra répéter le même raisonnement [33] pour une colonne verticale d'émulsion diluée. Les grains de cette émulsion ne se rassembleront donc pas au fond, mais une répartition d'équilibre statistique se réalisera, l'émulsion ayant alors l’aspect d’une atmosphère en miniature, à molécules visibles. Réciproquement, si en effet cette loi de répartition se vérifie, c'est que les lois des gaz sont appl icables.

Bien entendu, les grains de l'émulsion doivent être identiques, et le poids «efficace» de chaque grain est égal au poids de ce grain diminué de la poussée due au liquide environnant, selon le principe d'Archimède.

Donc, de façon précise, il faudra rechercher : S'il se réalise une répartition d'équilibre, les grains étant d'autant plus rares qu'ils sont à un niveau plus élevé, par antagonisme entre la pesanteur qui sollicite les grains dans un même sens, et le mouvement brownien qui les éparpille sans cesse ; Si, dans cette répartition d'équilibre, la même élévation, à partir de n’importe quel niveau, s'accompagne de la même raréfaction ; Si enfin cette élévation qui entraîne une raréfaction donnée varie avec l'émulsion, en raison inverse du poids efficace du grain.

Dès lors, s'il faut s'élever, par exemple, seulement de 5 microns, c'est-à-dire 1 milliard de fois moins que dans l'oxygène, pour que les grains deviennent 2 fois plus rares, c'est que le poids efficace de chaque grain est 1 milliard de fois plus grand que celui de la molécule d'oxygène. Ce qui nous donne le poids de cette molécule d’oxygène, donc le nombre d'Avogadro, et tous les poids des molécules ou des atomes. Des granules encore visibles auront formé le relais indispensable entre les objets qui sont à notre échelle et les molécules ou les atomes.

Réalisation.

– Il fallait d’abord savoir préparer des grains identiques. Pour cela ,j'ai précipité par l'eau des solutions alcooliques de résines (gomme-gutte ou mastic), ce qui donne des émulsions de sphérules vitreuses de toutes dimensions, que j'ai triées par centrifugation fractionnée. J'ai fait la théorie (36) de ce fractionnement qui exige de la patience et du temps. Plusieurs mois sont nécessaires pour obtenir des lots suffisamment uniformes. Le contrôle de cette uniformité se fait en examinant au microscope les surfaces régulièrement couvertes de sphérules jointives que laisse en s'évaporant une gouttelette d'émulsion de grains égaux. On a du même coup, en comptant les sphérules qui s'alignent sur une longueur mesurable ou qui recouvrent sans lacunes une aire mesurable, un moyen précis de connaître le diamètre des sphérules de l'émulsion. On mesure facilement d'autre part la densité de la résine vitreuse qui les constitue. Le poids efficace du grain s'ensuit[34]. Ayant ainsi des émulsions de sphérules égaux, on emprisonne une gouttelette d'émulsion dans une petite cuve fermée (haute par exemple de 1/10e de mm.) qui demeure immobile sur la platine d'un microscope. La connaissance précise de la répartition des grains à chaque instant s'obtient par des photographies instantanées sur lesquelles on pointe et dénombre à loisir ces grains.

On est alors en état de vérifier les prévisions précédentes :

1° On constate que, après la mise en place de l'émulsion, les grains, d’abord uniformément répartis, s'accumulent dans les couches inférieures[35], mais de plus en plus lentement, et qu'une répartition d'équilibre statistique de ces grains en mouvement est bientôt atteinte[36], chaque niveau gagnant à chaque instant autant de grains qu’il en perd.

2° La numération des grains sur clichés démontre avec rigueur que la même élévation, à partir de n'importe quel niveau, s'accompagne de la même raréfaction (ou, en d'autres termes, que la richesse en grains décroît exponentiellement avec la hauteur). Par exemple, dans l'eau, pour des sphérules de gomme-gutte ayant à peu près 3/4 de micron de diamètre, chaque élévation de 6 microns double la raréfaction. L'influence de la température a été particulièrement étudiée une colonne d'émulsion s'affaisse sur elle -même quand on la refroidit (l'agitation décroît et la pesanteur antagoniste reste la même) et reprend sa première expansion quand on la réchauffe : la loi de Gay-Lussac sur la dilatation des gaz a été ainsi vérifiée à un pour cent près, la température variant de - 9° à + 58° [37].

3° En changeant d'émulsion, on constate que l'élévation qui entraîne une raréfaction donnée varie, en grandeur et en signe, en raison inverse du poids efficace du grain (j'ai fait varier le poids dans le rapport de l à 50 et changé le signe du poids efficace en opérant dans des mélanges d'eau et de glycérine).

Bref, les émulsions diluées vérifient les lois des gaz parfaits. Ce sont des atmosphères pesantes en miniature, où la raréfaction est prodigieusement rapide, mais encore perceptible, alors que les molécules, devenues colossales, sont déjà visibles. Cette propriété remarquable a été prévue par des raisonnements si simples qu'elle constitue à coup sûr un argument particulièrement direct et convaincant en faveur de

l'existence des molécules. Et les valeurs qui en résultent pour les masses de ces molécules, par comparaison des élévations qui correspondent à la même raréfaction, inspireraient déjà confiance, même si l'on n'avait pas d'autre moyen d'obtenir ces grandeurs moléculaires.

Je pense, en particulier, qu’on se fierait aux valeurs ainsi obtenues plus qu'on ne faisait pour celles qu’avait obtenues la théorie cinétique de la viscosité des gaz par des raisonnements dont l'extrême pénétration n'empêche pas qu'ils sont embarrassés de difficultés mathématiques qui imposent des approximations incertaines.

En tout cas, la confiance qu’on accorderait à chacune de ces deux théories, supposée isolée, sera évidemment très augmentée si toutes deux conduisent aux mêmes résultats, cela par des chemins qui diffèrent si profondément, non seulement quant aux raisonnements et aux techniques expérimentales, mais quant aux réalités physiques étudiées (viscosité des gaz d'une part, et d'autre part répartition des émulsions). La théorie cinétique des gaz se trouvera ainsi consolidée et la croyance aux molécules sera bien difficile à éviter.

Or, précisément, il y a concordance aussi complète qu'on pouvait l'espérer. J'ai, en effet, obtenu, pour le « Nombre d'Avogadro » N, suivant les émulsions, des valeurs qui se placent entre 65.1022 et 72.1022. Mes mesures les plus sûres donnent 68.1022. Pour l'émulsion correspondante[38], l'élévation qui doublait la raréfaction était d'environ 6 microns, soit 1 milliard de fois plus faible que celle (6 kilomètres) qui double la raréfaction dans l’air à 0°.

Pour comprendre à quel point est significative la concordance avec le nombre 60.1022 obtenu (sans précision) par la théorie cinétique, il faut songer qu'avant l'expérience on n'eût certainement pas osé affirmer que la chute de concentration ne serait pas négligeable sur la faible hauteur de quelques microns, ce qui eût donné pour N une valeur beaucoup plus petite, et que par contre on n'eût pas davantage osé affirmer que les grains ne se ressembleraient pas tous au voisinage immédiat du fond, ce qui eût indiqué pour N une valeur beaucoup plus grande.

En ce qui regarde la précision de cette détermination de N, ce sera celle des expériences ; aujourd’hui de quelques centièmes, elle atteindra le millième quand on le voudra[39]. Il n'en est pas de même pour la valeur que tire actuellement de la viscosité des gaz la théorie cinétique ; ici le perfectionnement des mesures ne diminuera pas l'incertitude qui tient aux hypothèses simplificatrices introduites pour faciliter les calculs.

COMPRESSIBILITÉ OSMOTIQUE

Extension de la Loi de Van der Waals.

Puisqu'une émulsion diluée suit les lois des gaz, il est à présumer qu'une émulsion non diluée sera comparable à un fluide comprimé dont les molécules seraient visibles et que la théorie de Van der Waals donnera pour son étude un guide utile[40]. Pour mettre cette idée à l'épreuve, il faut pouvoir déterminer la pression osmotique en fonction de la concentration (compressibilité osmotique). C'est ce que permet aisément, conformément aux idées précédentes, l'observation d'une colonne verticale d'émulsion poursuivie jusqu'à des niveaux pour lesquels cette émulsion ne peut plus être regardée comme diluée.

Considérons, en effet, une colonne verticale d'émulsion, pratiquement illimitée (une hauteur de l’ordre du dixième de millimètre suffira en général). En chaque niveau, la pression osmotique peut être regardée comme soutenant l'ensemble des grains de niveau supérieur (de même que la pression atmosphérique équilibre le poids de l'atmosphère), et nous connaîtrons donc cette pression osmotique P si nous comptons tous ces grains[41].

D’autre part la concentration des grains au niveau considéré est fixée par le nombre connu de grains qui, au voisinage de ce niveau, se trouvent dans un petit volume connu. Bref, nous connaîtrons ainsi la pression P qui correspond à une concentration connue : cela donnera, expérimentalement, la loi de compressibilité, que l'on pourra comparer avec la loi théorique de Van der Waals.

S'il en est ainsi, de même que cette loi permet de trouver la molécule-gramme d'un fluide comprimé à molécules invisibles, de même ici on pourra trouver le nombre d'Avogadro pour l'observation du fluide comprimé à molécules visibles, que réalise l'émulsion (puisque ici la masse individuelle de la « molécule » est connue). M. René Costantin[42] a bien voulu étudier par cette méthode, dans mon laboratoire, la compressibilité d'une émulsion de sphérules égales (diamètre 0m,66), et a poussé l'étude jusqu'à une concentration de 1/15 en volume (correspondant à une pression osmotique de 1/20 de barye).

Il a ainsi vérifié que la loi de Van der Waals s'applique aux émulsions lorsque la loi de Van't Hoff devient inapplicable[43]. La valeur qui en résulte pour le nombre d'Avogadro est 62.1022.

Une propriété imprévue se rapporte à la cohésion. Je pensais que le terme de cohésion serait pratiquement nul et que les grains se comporteraient comme des billes n'influant l'un sur l'autre qu'au contact, et non à distance. Mais René Costantin a trouvé que les granules se repoussent : la cohésion est négative. Par exemple, dans de l'eau distillée, des sphérules de gomme-gutte ayant 0m,6 de diamètre se comportent à peu près comme feraient des billes sans interaction dont le diamètre serait 1m.

J'ai compris, après coup, que ce phénomène se rattache à cette électrisation de contact que j'avais étudiée et mesure 1'épaisseur de ces couches doubles qui expliquent, ainsi que je l’ai montré plus haut, l'osmose électrique et la stabilité des suspensions. On voit que cette épaisseur peut être très notable, et de l'ordre des grandeurs microscopiques.

On comprend immédiatement en même temps comment les émulsions, assimilables, à des fluides à cohésion négative, ne présenteront pas de phénomène comparable à la liquéfaction.

Fluctuations.

– Enfin je veux signaler comment la notion de compressibilité osmotique permet de contrôler la théorie de Smoluchowski sur les fluctuations de densité que produit l'agitation moléculaire dans un fluide de densité moyenne connue[44].

Selon cette théorie, la «fluctuation» (n – n0)/n0 dans un volume qui contient par hasard n molécules alors qu'il en contiendrait n0 si la répartition était uniforme, a une valeur moyenne qui se calcule[45] quand on connaît la compressibilité du fluide, et où figure le nombre d'Avogadro.

René Costantin a eu l'idée heureuse d'appliquer cette théorie (invérifiable pour les fluides ordinaires à molécules invisibles) à nos émulsions de grains égaux, considérées comme fluides à molécules visibles. Les mesures de compressibilité osmotique, faites jusqu'à la teneur de 7 pour 100 pour l'émulsion précédemment étudiée, ont permis de voir que la théorie de Smoluchowski se vérifie, donnant environ 60.1022 pour valeur de N.

THÉORIE CINÉTIQUE DU MOUVEMENT BROWNIEN

C'est grâce au mouvement brownien que s'établit la répartition d'équilibre d'une émulsion, d'autant plus rapidement que ce mouvement est plus actif. Mais cette plus ou moins grande rapidité n'importe pas pour la répartition finale. Aussi avons-nous pu étudier, comme on vient de le voir, l’état de régime permanent, sans faire aucune mesure sur le mouvement brownien.

On doit, d'autre part, à Einstein (et, indépendamment, bien qu'un peu plus tard, à Smoluchowski) une théorie du mouvement brownien, établie dans le même esprit que la théorie cinétique des gaz, et qui se prête aux vérifications. Sans s'inquiéter du trajet infiniment enchevêtré que décrit un grain pendant un temps donné, ces physiciens caractérisent l’agitation par le segment rectiligne qui joint le point de départ au point d'arrivée, et qui, en moyenne, est évidemment d'autant plus grand que l'agitation est plus vive. Ce segment sera le déplacement du grain pendant le temps considéré.

Si alors, comme le suggère l'observation qualitative, on admet que le mouvement brownien est parfaitement irrégulier à angle droit de la verticale[46], on peut prouver que le déplacement horizontal moyen d'un grain devient seulement double quand la durée du déplacement devient quadruple, et ainsi de suite. C'est-à-dire que le carré moyen du déplacement horizontal est proportionnel à la durée t de ce déplacement.

Or ce carré moyen est égal à deux fois le carré moyen X2 de la projection du déplacement sur un axe horizontal arbitraire. Donc, pour un grain donné, la valeur moyenne du quotient X^2/t demeure constante. Évidemment d'autant plus grand que le grain est plus agité, ce quotient moyen caractérise l'activité du mouvement brownien (à la température choisie et dans le fluide considéré).

Toujours en supposant uniquement que le mouvement brownien est parfaitement irrégulier, Einstein montre qu'il y a « diffusion » pour les grains d'une émulsion, comme pour les molécules d'une solution, et que pour une émulsion de grains égaux, le coefficient D de diffusion est égal à la moitié du nombre qui mesure l'activité de l'agitation :

D'autre part, nous avons vu que, dans une colonne verticale d'émulsion, le régime permanent se crée et se maintient par le jeu de deux actions antagonistes, pesanteur et mouvement brownien : Ce qu'on peut exprimer en écrivant que en chaque niveau le débit par diffusion vers les régions pauvres égale celui que provoque la pesanteur vers les régions riches.

Pour calculer le débit par diffusion, il faut admettre, comme nous l'avons fait, que grains ou molécules s'équivalent en ce qui regarde les pressions osmotiques[47]; pour calculer celui que provoque la pesanteur, dans le cas de sphérules de rayon a, il faut admettre que la vitesse moyenne de chute (très faible) reste calculable comme dans le cas de la chute uniforme, dans un fluide visqueux, d'une grosse sphère pratiquement non animée de mouvement brownien[48]. Moyennant quoi, Einstein trouve :

et, par suite, d'après l'équation précédente :

(R étant la constante des gaz, T la température absolue, z la viscosité). En sorte qu'agitation ou diffusion sont proportionnelles à la température absolue, et inversement proportionnelles à la grosseur des grains et à la viscosité.

Mouvement brownien de rotation.

– Jusqu'ici nous n'avons pensé qu’au mouvement brownien de translation. Or, un grain tournoie en même temps qu'il se déplace.

Einstein a établi, pour ce mouvement brownien de rotation, une équation comparable à la précédente, dans le cas de sphérules de rayon a. Si A2 désigne le carré moyen en un temps t de la composante de l'angle de rotation autour d'un axe, le quotient est fixe A^2/t pour un même grain, et devra vérifier l'équation

La démonstration implique l’égalité entre l'énergie moyenne de translation et l'énergie moyenne de rotation, égalité prévue par Boltzmann et que nous rendrons plus probable si nous réussissons à vérifier cette équation. Contrôle expérimental.

La belle théorie que je viens de résumer se prête à un contrôle précis, dès qu'on sait préparer des sphérules de rayon mesurable. Je me suis donc trouvé en état de tenter ce contrôle, lorsque, grâce à M. Langevin, j'ai eu connaissance de cette théorie. Comme on va voir, les expériences que j'ai faites ou dirigées la confirment entièrement.

Je dois dire d'abord que, en publiant leurs formules, Einstein et Smoluchowski ont signalé que l'ordre de grandeur du mouvement brownien semblait correspondre à leurs prévisions. On aurait pu sans doute affirmer dès lors que le mouvement brownien n'est sûrement pas plus que cinq fois plus vif, et sûrement pas moins que cinq fois moins vif que l'agitation prévue. Cette concordance approximative donnait tout de suite une grande force à la théorie cinétique du phénomène.

Rien de plus précis ne pouvait être dit tant que l'on ne préparait pas des sphérules égales de grosseur connue. Ayant de tels grains, j'ai pu contrôler quantitativement les formules d'Einstein en recherchant si elles conduisent, pour le nombre d'Avogadro, à une valeur toujours la même et sensiblement égale à la valeur déjà trouvée.

On y arrive, pour la formule relative aux déplacements, en notant à la chambre claire (grossissement connu) les projections horizontales d'un même grain au commencement et à la fin d'un intervalle de temps égal à la durée choisie, de façon à avoir, par exemple, un grand nombre de déplacements effectués en une minute[49].

Plusieurs séries de mesures dans lesquelles on a fait varier la grosseur des grains (dans le rapport de 1 à 70.000), ainsi que la nature du liquide (eau, solutions de sucre ou d'urée, glycérine) et sa viscosité (dans le rapport de 1 à 125), donnent avec des écarts explicables par les erreurs d'expérience, des valeurs comprises entre 55.1022 et 72.1022. La concordance est telle qu’on ne peut douter de l'exactitude de la théorie d'Einstein.

Il faut d'ailleurs observer que, bien que didactiquement de difficulté comparable à la théorie cinétique de la viscosité des gaz, la théorie d'Einstein n'introduit pas d'approximations simplificatrices et se prête, comme la mesure de la répartition en hauteur à une détermination précise du nombre d'Avogadro. Ici encore, ce n'est qu'une question de temps et d'argent.

Mes mesures les plus soignées qui m'avaient donné N égal à 69.1022 avaient été faites sur des grains qui, pour des raisons qui n'ont plus d'intérêt, avaient leur position initiale à 6 m du fond de la préparation. Au cours de pointés que je lui avais demandé de faire dans des préparations épaisses seulement de quelques microns, René Costantin a constaté que le voisinage d'une paroi ralentit toujours un peu le mouvement brownien. Opérant alors, loin des parois, avec les grains qui m'avaient servi, il a trouvé pour N la valeur 64.1022, malheureusement avec trop peu de pointés (une centaine). Les mesures devaient être et seront reprises.

Mesures du mouvement brownien de rotation.

– La formule obtenue par Einstein indique une rotation moyenne d'environ 8° par centième de seconde, pour des sphères de 1m de diamètre, rotation bien rapide pour être perçue et qui à plus forte raison échappe à la mesure. Et, en effet, cette rotation n'avait fait l'objet d'aucune étude expérimentale, même quantitative[50].

J'ai tourné la difficulté en préparant de grandes sphérules de mastic. J'y suis arrivé en précipitant la résine de sa solution alcoolique, non plus comme d'habitude, par addition brusque d'un grand excès d'eau, mais en rendant très progressive la pénétration de l'eau précipitante. C'est ce qui se passe quand on fait arriver lentement de l'eau pure sous une solution alcoolique de résine. Une zone de passage s'établit, et les grains, qui se forment nécessairement dans cette zone, ont alors couramment un diamètre d'une douzaine de microns. Ce sont des sphères limpides, semblables à des billes de verre, et qu'on brise facilement en fragments irréguliers. Elles semblent fréquemment parfaites, et alors leur rotation n'est pas observable. Mais fréquemment aussi elles contiennent à leur intérieur de petites vacuoles, points de repère grâce auxquels on perçoit facilement le mouvement brownien de rotation.

Malheureusement le poids de ces gros grains les maintient sans cesse appliqués tout contre le fond, ce qui perturbe leur mouvement brownien. J'ai donc cherché, par dissolution de substances convenables, à donner au liquide intergranulaire la densité des grains. Une complication aussitôt manifestée consiste en ce que, à la dose nécessaire pour suspendre les grains entre deux eaux, presque toutes ces substances agglutinent les grains en grappes de raisin, montrant ainsi de la plus jolie manière le phénomène de la coagulation, peu facile à saisir sur les suspensions ordinaires (à grains ultramicroscopiques). Pour une seule substance, l'urée, cette coagulation n'a pas eu lieu.

Dans de l’eau à 27 pour 100 d'urée, j'ai donc pu suivre l'agitation des grains. J'ai de même, assez grossièrement, pu mesurer leur rotation. Pour cela, je pointais à intervalles de temps égaux les positions successives de certaines vacuoles, ce qui permet ensuite, à loisir, de retrouver approximativement l'orientation de la sphère à chacun de ces instants, et de calculer sa rotation d'un instant à l'autre. Les calculs, appliqués à environ 200 mesures d'angle faites sur des sphères ayant 13 m de diamètre, m'ont donné pour N la valeur 6,5.1023 ; la concordance avec les déterminations précédentes est complète. Cette concordance est d'autant plus frappante qu'on ignorait jusqu’ici même l'ordre de grandeur du phénomène. La masse des grains observés est 70.000 fois plus grande que celle des petits grains étudiés pour la répartition en hauteur.

La diffusion des granules visibles.

– Pour achever d'établir les diverses lois prévues par Einstein, il ne reste plus qu'à étudier la diffusion des émulsions et à voir si elle conduit encore à la même valeur de N.

Quand M. Léon Brillouin me fit part de son désir de compléter le contrôle de la théorie d'Einstein en étudiant la diffusion des émulsions, je lui conseillai la méthode suivante qui utilise l'obstacle même qui m'avait empêché d'étudier un régime permanent dans la glycérine pure, où les grains se collent à la paroi de verre quand par hasard ils la rencontrent.

Considérons une paroi verticale de verre qui limite une émulsion, d'abord à répartition uniforme, de grains de gomme-gutte dans la glycérine, le nombre de grains par unité de volume étant n. Cette paroi, qui fonctionne comme parfaitement absorbante, capture les grains que le hasard du mouvement brownien amène à son contact, en sorte que l'émulsion s'appauvrit progressivement par la diffusion vers la paroi, en même temps que le nombre N de grains collés par unité de surface va en croissant. La variation de N en fonction du temps t déterminera le coefficient de diffusion, qui, d'après un calcul facile, sera :

M. Léon Brillouin a fait les expériences avec beaucoup d'habileté. Des grains égaux de gomme-gutte ont été longuement délayés dans la glycérine de manière à réaliser une émulsion diluée contenant 7,9.108 grains par centimètre cube. La diffusion s'est produite dans un thermostat à la température constante de 38°,7 pour laquelle la viscosité de la glycérine employée était 165 fois celle de l'eau à 20°. Deux fois par jour, on photographiait la paroi où se fixaient les grains.

L'examen des clichés successifs a montré que le carré du nombre des grains fixés est bien proportionnel au temps. Le coefficient D s'ensuit aussitôt. Il s'est trouvé égal à 2,3.10-11 pour les grains employés, après fixation de plusieurs milliers de grains (diffusion 140000 fois plus lente que celle du sucre dans l'eau à 20°).

La valeur qui s'ensuit pour N est 69.1022. La concordance est encore excellente, malgré la différence des techniques.

*
*   *

En résumé, et malgré des variations très étendues dans les conditions expérimentales et les techniques suivies, l'étude des émulsions a donné les valeurs suivantes du nombre d'Avogadro :

68.1022 par la répartition des émulsions diluées,
62.1022 par celle des émulsions concentrées,
60.1022 par les fluctuations de concentration,
64.1022 par le mouvement brownien de translation,
65.1022 par le mouvement brownien de rotation,
69.1022 par la diffusion des granules,
soit comme moyenne brute
65.1022.

Toute cette étude se rattache à la notion d'agitation moléculaire. A la même notion se rattache, comme nous avons vu, l'explication de la viscosité des gaz.

C'est encore en considérant les fluides comme formés de molécules irrégulièrement distribuées qu'on peut calculer le nombre d'Avogadro par observation de l'opalescence critique, du bleu du ciel, et de la lumière diffusée latéralement par les gaz. Je me borne ici à dire que ces observations, récentes, ont conduit encore[51] à la valeur 65.1022.

On sait que la théorie du rayonnement noir, où les raisonnements sont étroitement apparentés avec ceux de la théorie cinétique, a donné encore la même valeur. Les charges électriques de poussières microscopiques (multiples entiers de la charge élémentaire des ions) ont conduit au même résultat. Enfin, la radioactivité, qui a permis notamment de compter un à un les atomes qui forment une masse donnée d'hélium a donné dans un ordre d'idées tout différent des preuves directes de la structure atomique de la matière et impose encore la même valeur au nombre d'Avogadro.

Un tel ensemble de convergences crée une certitude au moins égale à celle que nous attribuons aux principes de la Thermodynamique.

La réalité objective des molécules et des atomes dont on doutait il y a vingt ans, peut aujourd'hui être admise comme un Principe dont les conséquences se vérifient toujours.

VI PELLICULES MONOMOLÉCULAIRES ET LAMES LIQUIDES FEUILLETÉES

Bien que la réalité moléculaire ne puisse plus être sérieusement contestée, il est évident que la perception directe des molécules serait un progrès considérable.

Si l'on n'en est pas là, si, par exemple, on ne peut percevoir individuellement les molécules qui forment une goutte d'huile, on peut du moins et bien facilement réaliser et percevoir des pellicules qui sont probablement monomoléculaires, c'est-à-dire formées par une seule couche de molécules.

C'est le cas pour ces voiles invisibles si ténus et cependant capables de calmer la violence d'une tempête, qui s'étendent rapidement à la surface de l'eau quand on y verse un peu de certains liquides insolubles, tels précisément que l'huile ou l'acide oléique.

Cet étalement tient à ce que l'eau grasse a une tension superficielle plus faible que l'eau encore pure qui l'entoure. En mesurant ces tensions, lord Rayleigh s'est aperçu que la couche de corps gras supposée uniforme manifeste déjà sa présence pour une épaisseur qui lui semblait de l'ordre du diamètre acceptable pour la molécule. (Lord Rayleigh, Papers, 1890.)

On n'a pas, je pense, assez clairement exprimé, à ce propos, que le corps gras reste à la surface libre sans s'insinuer entre l'eau et les différentes parois qu’elle touche (du moins pour les parois essayées). Par exemple, la surface rectangulaire d'une cuvette pleine d'eau peut être divisée en deux parties qui s'ignorent (au point de vue tension superficielle), au moyen d'une barrière capillaire mobile formée d'une lame de verre ou simplement d'une bande de papier qui glisse sur l'eau en s'appuyant sur deux bords parallèles de la cuvette (bien entendu, la barrière doit rester sèche sur sa face supérieure, sans quoi la surface libre ne serait pas réellement partagée). Si la cuvette est d'abord pleine d'eau propre, et que l’on dépose une trace d'acide oléique sur l'une des parties, la tension superficielle baisse aussitôt de ce côté, restant celle de l'eau pure pour l'autre partie. Quand la barrière mobile se déplace, la tension superficielle change seulement pour la surface graissée, reprenant une même valeur quand la barrière reprend une même place, l'acide oléique ayant donc forcément repris la même densité superficielle.

La notion du « fluide superficiel » ainsi définissable, fluide à deux dimensions que l'on peut comprimer par une sorte de piston linéaire, n'a été clairement comprise et établie que grâce à de récents travaux de André Marcelin[52]. Pour une dilution très grande, les molécules se meuvent à la surface de l'eau, comme les molécules d'un gaz, exerçant une pression (linéaire) sur les contours qui les arrêtent. Cette pression, qui est la différence entre la tension superficielle de l'eau pure et celle de l'eau graissée, grandit quand la densité superficielle croît, probablement d'abord en raison inverse de la surface, puis plus rapidement pour une certaine densité maximum, ou densité de saturation, jusqu'à ce qu'il se produise une discontinuité réversible qu'on peut comparer à la liquéfaction d'une vapeur saturante[53] : une phase nouvelle apparaît sous forme de disques d'acide oléique flottant à la surface. Réciproquement, quand on voit flotter un disque d'acide oléique sur une surface grasse, la pression linéaire contre le contour de cette surface a la valeur maximum qui vient d'être définie, et si l’on accroît la surface, le disque disparaît progressivement, à pression linéaire constante, par une «évaporation » à deux dimensions ; après sa disparition, la pression décroît, les phénomènes précédents étant retrouvés dans l'ordre inverse. La densité de saturation est de l'ordre de 2 milligrammes au mètre carré (1,8 mmgr.) pour l'acide oléique ; en supposant (ce qui semble le rapprochement maximum) que les molécules sont alors aussi serrées que dans l'acide oléique liquide, cela ferait pour la pellicule saturante une épaisseur de 2 millimètres environ ; la molécule d'acide oléique devrait donc avoir une dimension au moins égale à 2 millimicrons.

Or, utilisant la valeur maintenant connue du nombre d'Avogadro, il est facile de voir que les molécules qui emplissent un volume connu d'acide oléique, si elles sont sphériques, ne peuvent avoir un diamètre qui dépasse notablement l millimicron.

Mais elles ne sont probablement pas sphériques, et précisément Langmuir[54] a observé qu'elles doivent être allongées et que le groupement acide « hygroscopique» ou « soluble » de ces molécules doit être attiré par l'eau, sur laquelle elles ont donc tendance à se dresser, puisqu'elles ne peuvent s'y enfoncer étant dans leur ensemble insolubles.

Nous admettrons donc que la pellicule saturante est monomoléculaire et faite de molécules parallèles d'acide oléique, dressées perpendiculairement à la surface, probablement très rapprochées, et peut-être aussi rapprochées que dans l'état liquide. On voit que cette pellicule, à molécules orientées, est anisotrope. C'est probablement l'exemple le plus simple de ce qu'on nomme un liquide cristallisé.

*
*   *

Ces pellicules, formées par une couche de longues molécules jointives dressées perpendiculairement contre une surface où se colle leur extrémité hygroscopique, jouent un rôle important dans les lames ou les bulles d'eau de savon, que leurs propriétés ont depuis si longtemps signalées.

Tout le monde connaît ces propriétés si curieuses de l'eau de savon : possibilité de donner des lames ou des bulles persistantes, avec faible tension superficielle, cela pour des teneurs en savon qui peuvent être inférieures au millième, ce qui représente moins de 1 molécule d'oléate pour 20.000 molécules d'eau, et correspond en somme à de l'eau presque pure.

Voici longtemps qu'on a supposé[55], pour expliquer ces propriétés, que la surface libre de l'eau de savon doit avoir une composition très différente de celle des couches profondes. Nous allons voir qu'elle est probablement formée par une couche monomoléculaire d'acide oléique (partiellement ionisé).

Pour avoir idée de sa composition, on pourrait plonger dans le liquide un anneau où se forme quand on le retire une lame mince, recueillir la matière de cette lame mince, et recommencer un grand nombre de fois : la matière qui se rassemble à la surface aura plus d’importance relative dans la fraction ainsi séparée que dans la fraction restante.

Il est plus facile d'appliquer à l'enlèvement successif des surfaces neuves une opération qu'ont faite par jeu tous ceux qui ont soufflé des bulles de savon: si l'on souffle de façon continue dans un tube qui débouche dans l'eau de savon, les bulles viennent former au-dessus du liquide une mousse à larges cellules polyédrales, qui bientôt déborde du vase et tombe à l'extérieur.

C'est ce fractionnement que j'ai utilisé. Un courant d'air, au sortir d'un flacon laveur, barbote dans l'eau de savon contenue dans un verre placé dans une large cuvette photographique. La mousse déborde continuellement du verre et tombe dans la cuvette où elle se résout bientôt en liquide (tête du fractionnement).

Il est facile de trouver une proportion de savon telle que, lorsque la moitié du liquide à peu près est sortie du verre sous forme de mousse, le courant d'air ne donne plus que des bulles instables qui crèvent aussitôt formées. La mousse cesse donc de se produire. Le fractionnement est terminé et l'on peut comparer la tête et la queue du fractionnement.

Or, alors que le liquide du flacon laveur est neutre au tournesol, on voit que le liquide de tête est nettement acide et le liquide de queue nettement basique. De plus, il suffit de plonger deux segments d'un même tube capillaire dans les deux fractions liquides pour voir aussitôt que l'ascension est, pour le liquide de queue (comme pour l'eau pure), plus que double de ce qu’elle est pour le liquide de tête.

Cette expérience peut se généraliser. J'avais constaté que si l'on dissout dans une solution alcaline, soit de la colophane, soit de la gomme-gutte, on obtient des liquides qui ont les propriétés de l’eau de savon, c'est-à-dire qui sont de l'eau presque pure avec faible tension superficielle et possibilité de donner des bulles persistantes. J'ai alors répété pour ces liquides l'expérience si simple du fractionnement par extension de la surface, et j'ai obtenu même résultat qu'avec l'eau de savon : liquide de tête acide[56] et de faible tension superficielle, liquide de quelle alcalin et de forte tension superficielle.

Ces expériences se prêtent à des mesures quantitatives que Melle Delmon (professeur à Buenos-Aires) a bien voulu faire sous ma direction : Le volume d'air, débité avec une vitesse uniforme, était mesuré par un compteur ; le nombre des bulles par minute, donc leur nombre total était facile à connaître. On pouvait ainsi évaluer la surface de l'édifice laminaire sorti de la solution. Ce liquide de tête, évaporé à siccité dans une étuve, donne comme résidu une substance solide et un liquide huileux fortement acide. On peut doser dans ce résidu l'acide oléique et la soude.

Dans une expérience, 60 litres d'air divisés en 800.000 bulles environ, entraînèrent ainsi un excès de 75 milligrammes d'acide oléique. Faisant la correction assez incertaine de l'accroissement progressif d'alcalinité du liquide entraîné, on trouve ainsi (grossièrement) 2,2.10-7 pour la densité de l'acide oléique sur la surface libre de l'eau de savon. Valeur qui concorde suffisamment avec la densité superficielle maximum 1,8.10-7 trouvée par A. Marcelin pour l'acide oléique sur l'eau.

Ainsi (du moins pour l'eau de savon très étendue) la surface de l'eau de savon est formée par une pellicule monomoléculaire d'acide oléique, à la densité superficielle maximum. La conclusion analogue s'impose pour l'eau de colophane ou l'eau de gomme-gutte.

Une difficulté pourtant se présente : la tension superficielle de l'eau de savon est franchement plus faible que celle des surfaces d'eau graissées par l'acide oléique : les molécules de la surface doivent donc se repousser plus fortement, ce qui entraîne une tension superficielle plus faible. J'attribue ceci à une électrisation superficielle : en présence du liquide alcalin la dissociation de l'acide oléique AH est plus fréquente qu'en présence d'eau neutre : de nombreuses molécules de la pellicule superficielle sont donc des ions A- d'acide oléique, et leur répulsion électrique s'ajoute aux causes qui produisent la tension superficielle de la pellicule saturante ordinaire.

Ces pellicules grasses monomoléculaires interviennent dans la compréhension du phénomène nouveau que je vais maintenant décrire.

*
*   *

Lames liquides stratifiées.

Les taches noires des bulles de savon.

– Tout le monde connaît ces taches rondes et noires qui apparaissent, sur les bulles de savon, peu de temps avant leur rupture. Elles sont si noires et de contour si net qu'elles font penser à des trous faits à l’emporte-pièce. En réalité, elles réfléchissent la lumière, mais très peu, ce qui prouve, d'après le calcul classique de la quantité réfléchie par une « lame mince », que leur épaisseur est petite par rapport aux longueurs d'onde de la lumière visible. A l’intérieur de leur contour on voit souvent se former et grandir d'autres taches rondes encore plus noires, donc encore plus minces.

Ce sont là ces « taches noires » sur lesquelles Newton attirait déjà l'attention. Loin d'être instables, elles peuvent être conservées plusieurs mois sur des surfaces de plusieurs décimètres carrés, si on les forme dans une atmosphère close bien exempte de poussières, à l'abri des courants d'air et de l'évaporation, par exemple à la partie supérieure d'une grande bulle dont le liquide s'écoule progressivement vers le bas en même temps que les taches noires s'étendent sur une surface croissante, à bord horizontal bien net (Sir J. Dewar).

Reinold et Rücker (grossièrement), puis Johonnott, ont essayé de mesurer leurs épaisseurs. Ils ont trouvé 6 millimicrons pour la plus sombre, et le double environ pour l'autre. Cela en admettant que l'indice de réfraction dans la lame est égal à celui de l'eau. Sans doute vaut-il mieux dire, pour éliminer cette incertitude, que l'épaisseur du vide optiquement équivalente à celle de la tache la plus noire serait, d'après ces mesures, 8 millimicrons, et le double environ pour l'autre.

Enfin Johonnott, ayant regardé au microscope la lame verticale en expérience, a noté non pas seulement deux, mais cinq taches noires.

« Il est quelquefois possible, dit-il[57], de distinguer jusqu'à cinq taches noires. Les trois premières sont tout à fait évanescentes, et s'étendent rarement au delà de 2mm ou 3mm. La quatrième et la cinquième sont celles qu’on appelait d'habitude la première et la deuxième taches noires. Souvent les cinq taches sont vues ensemble dans le champ. »

Johonnott n'a donné aucun autre détail sur ce phénomène si curieux, que j'ai retrouvé quelques années après (1910).

Mode opératoire.

– J'ai observé des lames liquides horizontales, par auto-collimation. La lumière, réfléchie par un petit prisme à réflexion totale, traverse l’objectif du microscope, se réfléchit sur la lame, et traverse à nouveau l'objectif, puis l'oculaire, de manière à faire apercevoir par l'oeil une image nette de la lame. Aucun rayon direct n'entre dans l'oeil, en sorte que si l'on crève la lame, le champ devient obscur. Le grossissement était de l'ordre de 300 diamètres.

Les cinq taches noires.

– J'ai d'abord, avec de l’eau de savon ordinaire, immédiatement observé les cinq taches noires dont j'ignorais encore la découverte par Johonnott. L'indication si brève qu'il donne ne rend pas inutiles les détails suivants. Pour n'être plus exposé à changer la numération des taches noires, je numéroterai les lames par épaisseur croissante, en attribuant le rang 1 à la plus noire.

A mesure que la lame va s'amincissant, on voit d’abord, avec leurs gradations continues, les colorations des bulles de savon, puis le blanc du premier ordre qui va s'affaiblissant et prend une teinte de fumée bleuâtre dans les parties les plus minces.

Dans cette région amincie, on voit soudain apparaître et grandir un cercle faiblement blanc bleuâtre, à contour net, et d’éclat uniforme. Ce sera la tache d’ordre 5. Dans cette tache apparaît bientôt une plage circulaire, moins lumineuse, bien uniforme aussi et à contour net (tache d'ordre 4).

Dans cette plage d’ordre 4, on voit naître de même, en divers points, des cercles plus sombres (ordre 3). En s'élargissant, ces cercles poussent par leur bord des gouttelettes brillantes, semblant provenir du liquide libéré par l'amincissement brusque qui fait passer la lame de l'épaisseur 4 à l'épaisseur 3.

Dans la plage (ou les plages) d'ordre 3 apparaît la tache d’ordre 2 sous forme de cercles franchement sombres, également bordés de gouttelettes brillantes, qui s'élargissent beaucoup plus vite que ne faisaient les cercles d'ordre 3.

Enfin, dans cette tache noire d’ordre 2, apparaît la tache la plus noire, en cercles qui grandissent extrêmement vite et peuvent envahir tout le champ en un temps de l’ordre du dixième de seconde. Pendant qu’ils s'élargissent, ces cercles sont bordés de petits disques plats, plus larges que les gouttelettes précédentes.

Parfois, dans cette apparition de taches noires sans cesse plus minces, un ou deux échelons manquent. Par exemple, sur une lame où les cinq taches, simultanément présentes, permettent d'identifier sans hésitation d'après l'éclat toute tache nouvelle, on verra parfois se développer des cercles de rang 1 ou 2 directement dans une plage d'ordre 4. En particulier, en élargissant brusquement une lame formée sur diaphragme iris, on y voit des taches noires d'ordre l cribler par de petits trous ronds presque toutes les plages.

Ces taches noires d'ordre 1 sont des plus stables. On peut souffler assez violemment sur elles sans les déchirer. Et souvent alors, on amène à flotter à leur surface, en îlots libres, des empilements de lames plates des ordres supérieurs, qu'on peut comparer aux figures qu'on obtiendrait en empilant de minces disques plats d'épaisseurs égales et de diamètres décroissants.

Mouvement brownien à deux dimensions.

– On voit souvent apparaître sur les taches noires des points lumineux animés d’un mouvement brownien intense. Ce sont des gouttelettes, car elles se soudent quand elles se rencontrent jusqu'à former des sphérules ayant plusieurs microns de diamètre. Ces gouttelettes sont probablement de l'eau, car leur nombre grandit beaucoup si l'on souffle sur les taches noires, de la même façon dont l'haleine dépose de la buée sur un objet froid. Il faut admettre, que l'eau condensée sur la lame, plutôt que de lui donner une épaisseur instable, se rassemble en gouttelettes. Les plus grosses sont, par rapport à la lame noire, qui pourtant les supporte aisément, comme une orange à une feuille de papier. Je suppose que la lame noire contient le centre de ces sphérules.

Leur mouvement brownien, très vif dans le plan de la lame, est nul dans la direction perpendiculaire à cette lame. C'est un mouvement brownien à deux dimensions. On conçoit que parallèlement à la lame, le mouvement brownien soit beaucoup plus vif que dans un liquide puisque, sur la plus grande partie de sa surface, la sphérule frotte seulement contre l'air.

Addition de matières fluorescentes.

– La variété, la beauté de ces phénomènes, déjà frappantes, se sont trouvées bien surpassées lorsque (espérant à tort percevoir des fluctuations de concentrations dues à l'existence des molécules) j'ai ajouté diverses matières fluorescentes à l'eau de savon.

Pour étudier la fluorescence elle -même, je devais, abandonnant l’observation par autocollimation, éclairer obliquement la lame de façon à recevoir dans le microscope seulement la lumière de fluorescence. Je n'ai pas vu de fluctuations, et j'ai seulement pu faire quelques observations utiles en ce qui regarde la fluorescence optimum, comme on verra (chap. VIII).

Mais, revenant alors à l'autocollimation, j'ai observé des apparences nouvelles et singulières. Non pas en ce qui regarde la fluorescence : son éclat est négligeable par rapport à celui des rayons réfléchis. Mais en ce qui regarde la structure prise par la lame.

Structure stratifiée des lames. – Dès le premier aspect, l'observation, en éclairage violent, d'une lame d'eau de savon contenant 5 à 10 pour 100 d'uranine montre dans cette lame un très grand nombre de plages que l'on peut rapprocher des taches noires à cause de leur épaisseur uniforme et de la netteté de leur contour. Les plus minces ne semblent pas différer des taches noires déjà caractérisées. Mais on en découvre dans le champ beaucoup d’autres, qu'on ne peut plus appeler noires, en raison de leur éclat, et bientôt de leur couleur (éclat ou couleur expliqués selon la théorie classique de la réflexion sur une lame mince, par l'épaisseur plus grande de ces plages).

On observe ainsi des gris, des blancs, des jaunes, des rouges, des bleus, puis des couleurs d'ordre supérieur. Chaque plage a une couleur uniforme, tranchant de façon discontinue sur les plages contiguës. Les contours sont formés d'arcs de cercle.

Le développement des plages n'est plus au reste aussi simple que dans le cas précédent. On ne voit, pas, en général, par exemple[58], dans la plage d’ordre 30 apparaître la plage 29, puis dans celle -ci la plage 28 et ainsi de suite. Au lieu de cela, après que l'on a vu un instant apparaître les colorations à gradations continues des bulles de savon, il semble que la lame frissonne ; du liquide se ramasse en divers points sous forme de globules ; en même temps, par un réarrangement paisible, mais général, des plages à teintes plates apparaissent dans toute la lame. La richesse des colorations est extrême.

Une fois la stratification organisée, une évolution très lente se poursuit, qui donne, suivant les circonstances, plus ou moins d'importance à telle série de plages. Très fréquemment, on voit des sortes de hernies plates sortir des globules (ou du liquide périphérique non stratifié) et s'étendre sur les plages plates déjà formées. Enfin, le mouvement brownien à deux dimensions se constate, pour des gouttelettes ou des disques plats, sur diverses plages, grises ou colorées, mais d'autant moins vif qu'elles sont plus épaisses.

Ces phénomènes ne sont nullement particuliers à l'uranine ; je les ai retrouvés en ajoutant à l’eau de savon, au lieu d'uranine, de l'éosine, de l'esculine, de la rhodamine, etc.

Influence de la lumière absorbée.

– Ayant cru voir qu'un éclairage intense favorisait la stratification, je me suis arrangé pour éclairer seulement la moitié du champ.

Dans ces conditions, et lorsque les plages discontinues se sont formées dans le demi-cercle éclairé, on s'aperçoit, si l'on éclaire brusquement à son tour le demi-cercle jusque-là laissé obscur, que ce demi-cercle est resté non stratifié, dans l'état primitif de la lame, avec coloration à gradations continues. Le contraste des deux moitiés du champ est frappant. Il dure peu de temps d'ailleurs, car le liquide qu'on vient ainsi d'éclairer frissonne et se stratifie à son tour en donnant des plages discontinues désormais insensibles à la lumière.

Si l'on cesse d'éclairer, la stratification persiste ; la lumière, qui a provoqué ou accéléré son apparition, n'est pas nécessaire à sa conservation.

La lumière active est uniquement celle qui est absorbée par la substance colorante contenue dans la lame. On s'en assure en plaçant sur le trajet des rayons une cuve contenant une solution de cette substance, de façon à arrêter parmi ces rayons ceux qui auraient pu être absorbés par la lame, et seulement ceux-là. Par exemple, dans le cas de l'éosine, une cuve plate contenant une solution étendue d'éosine protégeait contre la stratification une lame à l'éosine, mais ne protégeait pas une lame à l'uranine.

Influence de la température.

– J'ai constaté que l'accroissement de la température peut favoriser la stratification. Dans une étuve à 50°, cette stratification se réalise spontanément pour l'eau de savon à l'uranine, maintenue non éclairée.

En même temps la fluidité du liquide est beaucoup augmentée, et l'on voit parfois ce liquide s'écouler rapidement le long de la lame, sans cesser d'être stratifié. On peut se demander si l'action stratifiante de la lumière absorbée dans la lame ne tient pas seulement à une élévation de température produite par cette absorption. Et, en effet, on voit beaucoup s'accroître la fluidité du liquide encore non stratifié dès que la lumière le frappe. Puis, quand la stratification est produite, la fluidité diminuée semble de nouveau correspondre à la température ambiante.

Il faut donc admettre qu'à épaisseur égale la lame stratifiée absorbe moins de lumière, donc contient moins de matière colorante (et par suite probablement moins d'eau) que le liquide non stratifié. Nous utiliserons ce renseignement.

Autres liquides stratifiables.

– Les lames jusqu'ici étudiées sont toutes faites dans de l'eau de savon, contenant environ 3 pour cent de savon (oléate de sodium). J'ai retrouvé les mêmes phénomènes avec d'autres solutions, obtenues à partir de deux résines acides : la gomme-gutte et la colophane.

J'avais observé, au cours de mes recherches sur les émulsions, que ces résines se dissolvent dans une solution de potasse ou de soude, donnant alors un liquide transparent qui mousse comme de l'eau de savon.

Une solution ainsi préparée à partir de gomme-gutte, contenant 3 de guttate de potassium pour 100 d'eau, donne de belles « bulles de savon » ou des lames planes persistantes. Dans ces lames, sans addition de colorants, j'ai observé souvent 8 plages, allant du noir au gris, et tout à fait semblables aux 8 premières plages que donne l’eau de savon sensibilisée par un colorant. Parfois j'en ai observé beaucoup plus de 8, mais sans pouvoir à volonté retrouver le phénomène.

L'eau de colophane, préparée de même, donne également des bulles et des lames persistantes. Dans ces lames, et sans qu'il soit utile de faire agir la lumière, la stratification discontinue se produit absolument comme dans de l'eau de savon à l'uranine sous l'action de la lumière, donnant la même richesse de teintes plates étagées en gradins.

Il devenait alors singulier que l'eau de savon ne pût donner ces plages sans addition de matières colorantes. Les oléates alcalins du commerce, qualifiés purs, ne les donnent pas non plus. Mais en dissolvant moi-même de l'acide oléique dans des solutions bouillantes de potasse ou de soude, j'ai vu que les solutions pures d'oléates, fraîchement préparées, donnent, sans addition de matières colorantes et à l'abri de la lumière toute la gamme des plages discontinues.

J'ai alors tâché de changer de solvant, d'abord en prenant des solutions de plus en plus riches en glycérine, de 50 à 95 pour 100 de glycérine. J'ai obtenu encore toute la gamme des plages, même dans la glycérine pratiquement sèche (sans autre eau que celle qui entrait avec l'alcali), mais j'ai dû, pour cela, faire agir la lumière, après sensibilisation par l’uranine (jusqu'à 30 pour 100 dans la glycérine la plus sèche). Enfin j'ai encore eu la même gamme de plages (toujours avec sensibilisation par l'uranine) dans des mélanges de glycérine et de sucre (jusqu'à 30 pour 100 de sucre, teneur au delà de laquelle le mélange reste vitreux à la température ordinaire).

Épaisseur des plages. – Loi des épaisseurs multiples.

L'examen d’un grand nombre de lames stratifiées m'a suggéré, avant toute mesure, que la différence d'épaisseur de deux plages contiguës ne peut s'abaisser au-dessous d'une certaine valeur, et que cette différence minimum élémentaire, sorte de marche d'escalier, est contenue un nombre entier de fois dans chaque plage. De même, si l'on jette des cartes à jouer sur une table, l'épaisseur en chaque point est celle d'un nombre entier de cartes, sans que toutes les épaisseurs possibles soient forcément réalisées, deux ou trois cartes pouvant rester collées. Les lames liquides stratifiées seraient ainsi formées par l'empilement de feuillets identiques, débordant plus ou moins les uns sur les autres, leur état liquide imposant aux contours libres la forme d'arcs de cercle (fixés en leurs extrémités sur des globules ou sur la périphérie non stratifiée, selon des conditions encore inconnues).

Les mesures, faites avec une précision croissante, ont pleinement confirmé cette impression.

Mesures préliminaires.

– L'observation peut se faire en lumière blanche. On sait que, à mesure que l'épaisseur grandit, la teinte d'une lame mince, vue par réflexion, part du noir, passe par des gris de plus en plus clairs, jusqu’à un blanc presque pur, puis devient jaune paille, jaune, orange, rouge, rouge foncé, violette (aux environs de 210mm pour l'eau). Ce sont les teintes dites du « premier ordre ». La teinte violette est « sensible », en ce sens qu'une très faible variation d'épaisseur, en son voisinage, change franchement la teinte. Elle donne un repère d'épaisseur assez précis.

Au delà, la teinte passe du bleu foncé au blanc bleuâtre, puis redevient jaune pâle, jaune, rouge et violette (second ordre). Et ainsi de suite, les couleurs devenant de plus en plus complexes et de plus en plus lavées de blanc, jusqu'aux « blancs d'ordre supérieur » (spectre sillonné de cannelures noires dont le nombre grandit avec l'épaisseur de la lame).

J'ai cherché à dénombrer les plages, jusqu'au premier violet. Souvent il en manque, et de plus leur dénombrement est très incertain dans la région d'éclat maximum où les contrastes sont très faibles. Mais on acquiert vite l'impression qu'un certain nombre de plages est fréquemment réalisé et n'est pas dépassé.

J'ai ainsi compté, avec n'importe lequel des liquides qui m'ont donné des lames stratifiées, 19 plages du noir au blanc, 18 du jaune paille au rouge foncé, et 1 violette, soit en tout 38 plages, jusqu'à l'épaisseur de 210 millimicrons, ce qui donnerait une moyenne de 5,5 mm pour la différence d'épaisseur de deux plages contiguës.

Sans chercher à faire un dénombrement complet au delà du premier ordre de teintes, j'ai compté 15 bleus dans le second ordre. Dans une lame, j'ai compté plus de 120 plages colorées en même temps présentes, réparties entre divers ordres de teintes.

L'examen en lumière monochromatique m'a donné un résultat analogue. Ici la teinte reste invariable, mais l'éclat, d'abord très faible, grandit avec le numéro de la plage, devient maximum pour la plage dont l'épaisseur approche le plus du quart de longueur d'onde ; puis décroît, et devient sensiblement nul pour la plage dont l'épaisseur approche le plus de la demi-longueur d'onde ; puis croît de nouveau, et ainsi de suite.

J'ai alors, par observation directe ou photographie, dénombré les plages jusqu'au premier maximum, puis entre le premier maximum et le premier minimum.

Avec une lumière bleu turquoise (longueur d'onde 0 m,368 dans l'eau) j'ai ainsi trouvé 17 plages jusqu'au premier maximum et de nouveau 17 entre ce premier maximum et le minimum suivant. Ce qui fait encore 5,4 mm pour différence moyenne, avec toujours l'incertitude qui tient à la difficulté du dénombrement près du maximum, de lumière. En sorte que nous obtenons ainsi seulement une limite supérieure de l'épaisseur élémentaire.

J'ai tenté d'écarter cette cause d'erreur en comptant, dans une même lame, combien il y a de plages entre la plage qui donne le premier minimum pour une certaine lumière monochromatique, et la plage qui donne le premier minimum pour une certaine autre lumière monochromatique. L'écart de ces épaisseurs est faible, et l'incertitude peut atteindre 20 pour 100, mais du moins peut-on alors affirmer qu’elle n'est pas plus grande. J'ai ainsi trouvé 5,2 millimicrons pour différence moyenne des épaisseurs de deux plages contiguës (prises aux environs de 200 millimicrons). Ainsi 1'épaisseur élémentaire serait comprise entre 4,2 mm et 5,5 mm.

Mesures précises.

– J'ai montré que des mesures précises sont possibles par la méthode de zéro suivante. L'intensité d'une lumière monochromatique réfléchie par une lame mince est, par suite de l'interférence entre les ondes réfléchies avec les deux faces, proportionnelle à sin^2(2*p*h/l) , h désignant l'épaisseur de la lame, et l la longueur d'ond e dans le liquide de la lame. Si donc nous désignons par I_M l'éclat maximum donné par une plage d’épaisseur 1/4 et par I_n , l'éclat de la nième plage d'épaisseur h_n, nous aurons

Je rappelle d'autre part que si deux nicols sont traversés par un rayon de lumière, l'intensité du rayon varie, quand l'angle a des deux nicols varie, comme cos2a.

Il est alors aisé de réaliser un montage permettant d'égaliser pour une rotation an l'intensité de la lumière qui vient de la nième plage et celle de la lumière qui vient de la plage d'épaisseur 1/4 qui réfléchit au maximum. Cela exigera :

et l'équation précédente devient

qui peut s'écrire :

ce qui donne de façon très simple l'épaisseur cherchée. On voit que des variations égales d'épaisseur entraîneront des variations de l'angle a.

Le montage des expériences fut arrêté par la guerre. Il fut réalisé et les mesures furent effectuées selon cette méthode, après la guerre, dans mon laboratoire, par P .V. Wells. Travail difficile où ce physicien a prouvé beaucoup d'esprit critique dans l'élimination des causes d'erreur, et d'habileté expérimentale dans les déterminations[59].

120 mesures ont été faites pour la plage d'ordre 1, et donnent des épaisseurs qui se groupent selon la loi du hasard autour de 4,35 millimicrons. C'est à coup sûr la meilleure mesure faite jusqu'ici de l'épaisseur de la « tache noire », pour laquelle Johonnott donnait 6 mm. L'extrême minceur de cette plage, la faiblesse de la lumière réfléchie, les difficultés dues aux lumières parasites, rendent particuli èrement intéressante cette détermination.

L'ensemble des mesures pour les premières plages donne comme épaisseur de ces plages :

1. 4,35 mm pour la 1ère plage par 120 mesures.
2. 4,7 mm » 2e » » 40 »
3. 4,6 mm » 3e » » 40 »
4. 4,7 mm » 4e » » 30 »
5. 4,45 mm » 5e » » 70 »
6. 4,6 mm » 6e » » 40 »

et ainsi de suite jusque vers la 15e plage, une même épaisseur (environ 4,5 mm) pouvant, dans les limites des erreurs d'expérience, être regardée comme contenue un nombre entier de fois dans chaque épaisseur de plage[60].

Au voisinage du maximum d'éclat, cet éclat change trop peu pour que les mesures restent démonstratives. De plus, comme l’épaisseur élémentaire n'est certainement pas connue avec une précision supérieure à 5 pour 100, il semble impossible, au-dessus d'une certaine épaisseur de plage, de savoir si la loi des multiples reste vérifiée. Par exemple, toute épaisseur supérieure à 100 millimicrons est un multiple entier d'une épaisseur qui diffère de 4,5 mm de moins de 5 pour 100 : la loi ne semble plus pouvoir être vérifiée.

Mais, ce qui reste vérifiable, c'est que l'épaisseur varie toujours de la même façon d'une plage à la plage contiguë. La « marche d'escalier » doit rester la même, si la loi subsiste.

J'ai donc demandé à M. Wells, laissant de côté l'épaisseur absolue, de mesurer la « marche d'escalier », la différence d'épaisseur entre plages contiguës, et aussi épaisses que possible.

C'est ce qu'il a fait, opérant cette fois en lumière blanche, au voisinage de la teinte sensible, et en appliquant une méthode que m'avait suggérée René Marcelin[61], en 1914, méthode qui consiste à réaliser des teintes identiques aux teintes de la lame liquide au moyen d'un quartz compensateur à épaisseur variable placé entre nicols croisés (comparateur de Michel Lévy). La différence entre les épaisseurs de quartz qui donnent les teintes de 2 plages liquides contiguës détermine la différence des épaisseurs de ces plages.

Wells a ainsi obtenu 4,2 mm au voisinage du violet du 1 er ordre, et 4,3 mm au voisinage du violet du 2e ordre.

Bref, la hauteur de la « marche d'escalier » garde la même valeur au voisinage de la lère, de la 50e ou de la 100e marche, soit environ 4,4 millimicrons. La loi des épaisseurs multiples est bien vérifiée.

M. Wells a vérifié de même cette loi des épaisseurs multiples pour certains des autres liquides stratifiables plus haut énumérés, notamment pour les lames à la glycérine.

La valeur trouvée pour l'épaisseur élémentaire, peut-être un peu inférieure à ce qu'elle est pour l'eau, n'en diffère pas cependant d'une quantité qui dépasse à coup sûr les erreurs d'expérience.

Bref, la loi des épaisseurs multiples est bien établie : dans une lame liquide stratifiée, l'épaisseur de chaque plage est un multiple entier d'une même épaisseur élémentaire (voisine de 4,4 millimicrons), donc, probablement : les plages des lames stratifiées sont formées par la superposition, en nombre quelconque, de feuillets élémentaires identiques.

Pour les plus épaisses des plages que j'ai observées (blanc d'ordre supérieur, à spectres cannelés) le nombre de ces feuillets superposés s'est élevé jusqu'à environ 1.000.

LE FEUILLET ÉLÉMENTAIRE

On doit attirer l'attention sur ce que l'épaisseur du feuillet élémentaire a été calculée en lui attribuant un indice de réfraction égal à celui de l'eau. Cela est discutable, pour bien des raisons. On évitera toute incertitude si l'on se borne à dire : Le feuillet élémentaire, quel qu'il soit, équivaut optiquement à une épaisseur de 6 millimicrons dans le vide.

Ceci ne comporte pas d'hypothèse. Mais maintenant nous voulons tâcher de savoir quelle est la structure du feuillet élémentaire, et d'abord de la première plage, de la tache noire.

Nous savons déjà que, sur chaque face, l'eau de savon est revêtue d'une couche monomoléculaire d'acide oléique à molécules presque jointives.

La tache noire serait donc, à ce que je présume, une sorte de sandwich contenant un lit de molécules d'eau[62] (au moins 2 molécules d'épaisseur, je pense) contre chaque face duquel se dressent, collées contre l’eau par leur groupement acide, des molécules parallèles d'acide oléique. Et 1'épaisseur qu'on trouve pour un tel système laminaire formé d'une pellicule d'eau entre 2 pellicules monomoléculaires d'acide oléique est bien approximativement 4 à 5 millimicrons (3,8 pour 2 molé cules d'acide oléique, plus 0,6 pour 2 molécules d'eau).

L'empilement de feuillets identiques à cette lame noire donnerait les plages successives. L'acide oléique, beaucoup plus abondant au sein de cet assemblage que dans l'eau de savon donnée, serait emprunté aux parties non stratifiées, au moment où un feuillet en sort, avec l'apparence d'une hernie pla te, pour s'étendre sur les plages déjà formées.

Cette façon de voir est bien en accord avec les indications que m'ont données, comme on a vu plus haut, l'action de la lumière et l'action de la température, suggérant que les lames stratifiées contiennent à épaisseur égale, beaucoup moins d'eau que le liquide non stratifié.

Je ne regarde pas comme exclu qu'une périodicité dans les forces de cohésion explique la structure feuilletée périodique des lames liquides stratifiées. Structure qui rappelle, à une échelle à peine plus grande, les empilements moléculaires réguliers qui forment les cristaux[63].

On peut enfin espérer, par des expériences analogues à celles de Bragg, faire réfléchir, sur des incidences convenables, des rayons X sur des lames liquides feuilletées. Comme dans le cas des cristaux, il y aura là un moyen d'étudier, soit des lames, soit les rayons X employés (dont la longueur d'onde serait, comme ordre de grandeur, 5 fois plus grande que celle qui convient pour les cristaux ordinaires).

VII ACOUSTIQUE

Au cours d'études pratiques sur la réception et l'émission de sons transmis par le sol, l'eau ou l'air, j’ai fait quelques observations qui peuvent être signalées dans le présent exposé.

1. – CAPSULES ACOUSTIQUES.

On peut appeler capsule acoustique une cavité pleine d'air en forme de disque aplati, qui s'écrase ou se distend sous l'influence de la vibration qu'on veut déceler, et qui communique avec l’atmosphère par un tuyau long et étroit, issu du milieu de l'une des faces du disque.

Quand le disque se déforme, il y entre ou il en sort de l'air qui passe nécessairement au point où le tuyau débouche dans le disque. Si la déformation est périodique, le déplacement d'air à l'origine du tuyau sera aussi périodique, et donnera naissance à un train d’ondes qui pourra être perçu comme « son » par l'oreille à l'extrémité libre du tuyau.

Influence des dimensions de la capsule.

– Tout l'air qui vient du disque creux, ou qui y entre, doit passer par le tuyau ; si donc cet air était incompressible, l'amplification (ou rapport du déplacement dans le tuyau à la variation d'épaisseur du disque) serait égale au quotient de la surface du disque par la section du tuyau. Mais on peut se rendre compte avec un peu plus d'attention, et j'ai vérifié, qu'à une fréquence donnée d'excitation correspond un diamètre optimum du disque. Pour le comprendre, imaginons une déformation donnée du disque, dans le sens d’une compression par exemple ; l'écoulement radial de l'air comprimé vers l’origine du tuyau exige un temps fini, d'autant plus long que le disque est plus large. Si un déplacement de sens inverse se produit alors que cet écoulement n'est pas terminé, une partie de la lame d'air n'aura pas repris la pression initiale, et aura été comprimée inutilement ou même nuisiblement. Dans le cas d'un ébranlement périodique, on aura une idée du phénomène en raisonnant comme si un son se propageait radialement dans la lame, de la périphérie vers le centre. Si le temps nécessaire pour ce trajet dépasse un peu le quart de la période d'excitation, l'effet qui provient de la périphérie commence à s'opposer à celui de la région centrale.

Le rayon optimum de la capsule serait donc de l'ordre du quart de la longueur d'onde du son dans la lame plane. Comme l'attaque de cette lame par la membrane n'est pas elle-même instantanée, et qu'il n'y a pas simultanéité dans la compression, le rayon optimum est encore inférieur au rayon prévu par ce raisonnement approché. J’ai en effet constaté par des tâtonnements réguliers l'existence d'un diamètre optimum au delà duquel on perd au lieu de gagner (12 à 15 centimètres pour certains sons transmis par le sol).

J'ai également établi l'existence d'une épaisseur optimum : l'intensité du son perçu grandit quand la lame d'air devient plus mince, jusqu'à une certaine épaisseur au delà de laquelle on perd au lieu de gagner : cela en raison de la viscosité de l'air qui s'écoule vers le centre de la lame. Cette épaisseur optimum intérieure de la capsule m'a paru être environ 2 dixièmes de millimètre.

La théorie mathématique précise a été donnée ultérieurement par M. Langevin, et fixe aux environs de l dixième de millimètre la valeur de l'épaisseur optimum : l'écart est de l'ordre des erreurs possibles.

Géophones.

– Les capsules acoustiques se prêtent bien à la réception des sons transmis par le sol (comme l'ont également reconnu M. Labrouste et M. Jouaust dans le service du général Ferrié). Une face de la capsule fait alors partie d'un bâti rigide léger, qui suit les vibrations du sol sur lequel on le place, comme un bouchon suit, pratiquement sans retard, le mouvement des vagues. L'autre face, qui doit ne pas être raccordée rigidement à la première, est fixée par sa partie centrale et sur son côté extérieur à la capsule, contre une masse importante, qui doit ne pas être liée rigidement au sol et qui reste alors pratiquement immobile en raison de son inertie lorsque le bâti vibre avec le sol. Les deux faces de la capsule s'écartent donc et se rapprochent alternativement quand des ondes sonores passent dans le sol. Un tel appareil, véritable sismoscope pour courtes périodes, constitue ce qu’on nomme aujourd'hui le plus ordinairement un géophone[64].

Le géophone que j'ai construit (avec la collaboration de M. Chilowski et de M. A. Marcelin) contient, pour des raisons pratiques, deux capsules de la sorte qui vient d'être décrite, taillées dans le même bâti rigide et léger, de part et d'autre de la masse qui reste pratiquement immobile ; en sorte que l'une des capsules s'écrase quand l'autre se distend.

Les sons recueillis par les deux capsules sont donc exactement en opposition de phase, ce dont on ne s'aperçoit pas, au reste, quand les deux tuyaux (égaux) aboutissent chacun à une des deux oreilles.

Mais si on raccorde ces tuyaux égaux des deux capsules, par un branchement en Y, sur un tuyau unique aboutissant à une seule oreille, cette oreille ne perçoit aucun son ; le son réapparaît dès que l'on intercepte l'une de ces deux arrivées de son en écrasant entre les doigts le tuyau correspondant du géophone. Il réapparaît également si on allonge ce tuyau au lieu de l'écraser. II y a là un moyen assez frappant de mettre en évidence l'effet d'une différence de phase entre sons qui interfèrent.

Toute vibration transmise au bâti d'un géophone peut se décomposer en deux vibrations, l'une perpendiculaire, l'autre parallèle aux lames d'air des capsules. On peut prévoir, et j'ai vérifié, que la composante parallèle n'a aucune action. Il suffit pour s'en assurer de conduire la vibration au bâti par une longue tige (par exemple, une longue aiguille fichée par une extrémité dans une table sur laquelle on appuie un diapason). La direction de cette tige est nécessairement celle de l'amplitude qui excite le bâti. Or, si on maintient à la main le géophone contre l'extrémité de la tige, on constate que le son perçu s'éteint chaque fois qu'on passe par une position dans laquelle le plan des capsules est parallèle à la tige.

On pourrait donc supposer, plaçant un géophone sur le sol de façon que le plan des capsules soit vertical, que l'audition d'un bruit cessera quand ce plan deviendra parallèle à la direction d'où vient ce bruit. Et c'est ce qui se produirait si le sol était pour le son un milieu homogène. En fait, au moins avec les sols étudiés (calcaire, sable, etc.), l'extinction ne se produit pas. De même, par un épais brouillard, on perçoit de la lumière dans toute direction, que l'on se tourne ou non vers le soleil, dont il est impossible de savoir s'il est de tel ou tel côté : Le sol fonctionne comme un milieu trouble vis-à-vis des sons qu'il transmet. Aussi est-il toujours très absorbant.

Je peux signaler à cette occasion, et à propos de conduction sonore, la haute conductivité du bois. Une canalisation de cent mètres environ, faite de cannes de bois vissées bout à bout (sans « entrebois ») transmet sans beaucoup l'affaiblir le bruit d'une montre placée à l'une de ses extrémités.

2. – CORNETS ACOUSTIQUES.

Tout le monde sait qu'un cornet acoustique amplifie les sons, tant à la réception qu'à l'émission, dans la direction vers laquelle on le tourne.

Il était naturel d'essayer d'appliquer ces propriétés à la réception des sons transmis par l'eau, en remplaçant l'oreille par un récepteur microphonique. De tels essais, avec des cornets de forte tôle , ne donnent aucun résultat.

C'est que l'inertie de cette tôle est négligeable par rapport à celle de la masse liquide qui l'ébranle au moment du passage des ondes, en sorte que ces ondes passent à peu près comme s'il n'y avait pas de cornet. Mais si on l’entoure ce cornet d'une gaine d'air dans laquelle l'énergie sonore conduite par l'eau ne pénètre pratiquement pas, les propriétés connues sont retrouvées, et l'on peut à 1'écoute fixer approximativement la direction d'où vient le bruit. On obtient plus simplement un résultat analogue en employant un cornet fait de plomb très épais, et par suite suffisamment inerte pour n'être pas entraîné par l'onde.

Bien qu'un tel cornet soit utilisable pour la recherche de la direction sonore, son pouvoir amplificateur reste faible, du moins pour les dimensions pratiquement réalisables. On le comprend quand on sait qu’un cornet, suivant la théorie de Rayleigh, ne peut amplifier beaucoup l'intensité que pour des sons dont la longueur d'onde est assez petite par rapport à la longueur du cornet. Or, pour un son donné, la longueur d'onde est plus de quatre fois plus grande dans l'eau que dans l'air. En sorte que le son que commence à amplifier notablement un cornet dans l'air est à la double octave grave de celui que commence à amplifier notablement, dans l'eau, un cornet de mêmes dimensions.

J'ai cherché, n'ayant pas alors de théorie plus précise, à déterminer, dans l'air, pour un son de longueur d'onde fixée (tuyau d'orgue), et pour une base donnée de cornet, la longueur de cornet au-dessus de laquelle l'amplification devenait importante. J'ai ainsi trouvé que cette amplification, d'abord faible, grandit rapidement, et devient à peu près fixe quand la longueur du cornet dépasse la demi-longueur d'onde du son étudié. J'ai de même trouvé, par tâtonnements réguliers, que l'angle au sommet d'un cornet de longueur fixée a une valeur optimum, environ 25°.

Depuis, et sans connaître ces résultats, M. Langevin a fait une belle théorie mathématique qui eût permis de prévoir quantitativement l'amplification par un cornet de base donnée. On y voit que le pouvoir amplificateur maximum est en effet presque atteint pour une longueur égale à la demi-longueur d'onde du son. L'expérience m'avait d'autre part livré un résultat pratiquement important dont je n'ai pas encore la théorie.

Nous venons de voir qu'un cornet amplifie peu les sons « trop graves ». Par exemple, prenant pour source sonore un tuyau d'orgue donnant la note fa, dont la longueur d’onde est d'environ 4 mètres, et se plaçant à une distance où il était à peine perceptible, on n'entendait guère mieux en appliquant l'oreille au sommet d'un cornet long de 40 centimètres. Mais si l'on conduisait le son à l'oreille par un tube de longueur variable, on constatait que l'amplification, d'abord faible, devenait très notable quand ce tube s'allongeait, malgré l'affaiblissement qu'on aurait pu attendre par perte dans le tuyau, et atteignait une valeur limite pour une longueur d’environ 2 mètres, amplification qu’on ne dépassait plus en portant progressivement la longueur à 6 mètres.

Ainsi, pour obtenir une amplification notable avec un cornet, il suffit que la longueur totale du cornet et du tuyau qui lui fait suite jusqu'à l'oreille atteigne la demilongueur d'onde du son écouté.

3. – PLAQUES AMPLIFICATRICES.

Certains raisonnements approchés m'ont conduit à mettre en évidence un type d’amplificateur jusqu'ici non signalé.

Si on adapte à l'oreille un ajutage qui termine un tube dont l'autre extrémité débouche librement dans l'atmosphère, on perçoit (sauf perte dans le tuyau), l'intensité du son dans l'air près de cette extrémité libre.

Supposons maintenant (ce qu'il est facile de réaliser par un ajutage) que cette extrémité libre soit un trou percé au centre d'une plaque solide circulaire orientée face à la source sonore. On constate alors en général une amplification notable.

Malgré les différences apparentes, je présume que la théorie du phénomène est qualitativement analogue à celle de la capsule acoustique. Quand les ondes sonores viennent frapper la plaque qui leur est parallèle, elles produisent des variations de pression simultanées en tous les points du disque, points qui deviennent au sens d'Huygens de petites sources synchrones émettant des ondes secondaires dont les effets se superposent à ceux de l'onde primaire. L'amplitude dans la région centrale (d'où part le tuyau qui va à l'oreille) est donc somme de l'amplitude directe et de celles qui sont dues aux petites zones annulaires concentriques dont l'intégrale forme le disque. Toutes ces amplitudes seront de même sens si le temps mis par le son pour venir de la périphérie du disque jusqu'au centre est inférieur au quart de la période du son, c'est-à-dire si le rayon du disque est inférieur au quart de la longueur d'onde de ce son. Au delà de cette dimension, l'amplification diminuera, passera par un minimum quand le rayon atteindra la demi-longueur d'onde, puis croîtra de nouveau, et ainsi de suite.

J'ai en effet constaté l'existence de ce maximum, puis de ce minimum, dans l'amplification par une plaque circulaire au centre de laquelle aboutit le tuyau d'écoute. La source donnait la note sol de longueur d'onde égale à 70 centimètres environ. Une suite de disques ayant jusqu'à 1 mètre de diamètre ont été comparés : l'amplification était maximum pour 34 centimètres de diamètre, minimum pour le diamètre de 70 centimètres, et croissait de nouveau, sans atteindre la valeur du premier maximum, jusqu'au diamètre 100 centimètres.

(On remarquera que la tête forme grossièrement plaque amplificatrice autour de chacun de nos conduits auditifs.)

Au lieu que l'ajutage issu du milieu de la plaque amplificatrice soit cylindrique, il est au reste préférable que le trou percé dans la plaque soit plus grand et forme la grande base d'un cornet sur lequel s'ajuste le tube d'écoute. L'appareil prend ainsi un peu l'aspect d'un pavillon de cor de chasse. On peut encore dire, et j'ai vérifié, que si la base d'un cornet a un diamètre inférieur à la demi-longueur d'onde du son que l'on écoute, il est avantageux d'entourer cette ouverture de cornet par un anneau plat assez large pour que le diamètre du « pavillon » ainsi formé soit égal à la demilongueur d'onde du son.

4. – MYRIAPHONES.

Quand on cherche à réaliser un cornet de grand pouvoir amplificateur, on se trouve bientôt arrêté pour des raisons pratiques qui tiennent, non seulement aux dimensions ou aux poids, mais aux difficultés de manoeuvre des grands cornets qu'on voudrait employer.

J'ai proposé et appliqué le procédé suivant pour utiliser une grande surface réceptrice avec un récepteur cependant court et maniable.

Subdivisons la surface réceptrice en un grand nombre d'éléments identiques, formant par exemple un carrelage d'hexagones réguliers. Chacune de ces surfaces élémentaires sera la base d'un petit cornet, et c'est l'ensemble de ces petits cornets juxtaposés comme les alvéoles d'un « nid d'abeilles » qui va capter l'énergie sonore. Pour cela, sur les ouvertures qui forment les sommets de tous les cornets sont ajustés des tuyaux ayant tous la même longueur, mais courbés de façon quelconque, dont les extrémités se juxtaposent en constituant un deuxième carrelage plan hexagonal, semblable à la surface d'écoute, mais beaucoup plus petit. Ce petit carrelage sert de base à un cornet « collecteur » du sommet duquel part un dernier tuyau qui conduit enfin le son à l'oreille.

Le fonctionnement est évident : si l'appareil est correctement tourné face à la source sonore, l'onde plane incidente détermine dans les alvéoles des ébranlements synchrones qui, se transmettant sur des longueurs égales, arrivent en concordance de phase sur les divers éléments de la surface de base du cornet collecteur ; tout se passe alors comme si cette base recevait un train d'ondes d'intensité beaucoup plus grande que celle du train d'ondes initial, et 1'oreille est enfin excitée après une dernière amplification par ce cornet collecteur. Il résulte de ce que nous avons dit sur l'amplification des sons graves par les cornets qu'il y aura avantage à donner au moins au dernier tuyau une longueur qui atteigne ou dépasse la demi-longueur d'onde du son le plus grave qu'on veut amplifier.

Cette sorte d'oreille « composée» constituée par la mise en parallèle de prises d'écoute identiques peut fonctionner réversiblement pour l'émission de sons dirigés, comme porte-voix par exemple. Il suffit, au moyen d'un « commutateur acoustique », de substituer au tuyau qui allait à l'oreille un tuyau qui vient de la bouche : le son émis, conduit par des chemins égaux jusqu'aux alvéoles, détermine dans le plan commun des bases de ces alvéoles autant de sources synchrones, qui vont jouer le rôle de ces sources qu'Huygens imagine tout le long d'une onde plane. Il n'y a plus alors qu'à répéter la théorie élémentaire classique de la propagation d'une onde plane le long du « rayon » normal à l'onde, d’après le « Principe d'Huygens », pour comprendre que l'énergie sonore va être lancée perpendiculairement à la surface d'émission avec une diffraction latérale d'autant plus faible que cette surface d'émission sera plus grande.

J'ai proposé d'appeler myriaphone l'appareil composé qui vient d'être décrit. Il va de soi que 1es éléments d’un myriaphone peuvent au lieu de cornets à bases juxtaposées, être des cornets ayant pour bases des trous régulièrement espacés dans une plaque solide « amplificatrice », comme le fait comprendre ce que nous avons dit de ces plaques. Et cette disposition sera souvent avantageuse.

Enfin, au lieu de grouper sur la base d'un collecteur unique tous les tubes issus des cornets élémentaires, il est en général avantageux de procéder par étapes : par exemple un assemblage régulier de 36 cornets sera subdivisé en 6 groupes de 6, disposés en couronne autour du centre ; chacun de ces groupes aura son petit collecteur, et ces petits collecteurs seront à leur tour réunis par des tubes égaux à un collecteur central. Les dispositions florales symétriques ainsi réalisées permettent de diminuer encore la profondeur du myriaphone.

5. – LE SENS DE LA DIRECTION DU SON.

Nous percevons instinctivement la direction par laquelle nous arrive un bruit. Si, par exemple, on entend parler dans l'obscurité on sait très bien se tourner vers la personne qui parle. Comme on l'a très justement signalé de divers côtés, cette faculté tient principalement à ce que l'une des oreilles est impressionnée un peu avant l'autre et non pas à ce qu'elle est plus fortement impressionnée. On s'en assure de façon frappante en constatant que si on se «bouche » une oreille avec un doigt (ce qui affaiblit extrêmement l'intensité des sons perçus par cette oreille), on reconnaît encore sans hésiter que par exemple tel bruit est produit du côté de l'oreille qui est bouchée. Et c'est seulement en cas de surdité complète d'une oreille que le sens de la direction des bruits peut disparaître. Il est bien remarquable que le cerveau puisse ainsi reconnaître des différences de phase qui correspondent à des temps de l'ordre du 20.000e de seconde. Et cette propriété subsiste quand, au lieu d'écouter à l'oreille nue, nous écoutons un même bruit au moyen de deux tubes de longueur égale ajustés dans nos deux oreilles, et venant de deux récepteurs qui peuvent être à plusieurs mètres l'un de l'autre : si nous accusons par exemple le bruit à notre gauche, cela veut dire (comme on le vérifie aisément avec une grande précision), que le son a frappé le récepteur relié a l'oreille gauche avant de frapper celui qui est relié à l'oreille droite. Le « son de milieu » est observé quand les récepteurs sont à égale distance de la source, et il suffit alors d'avancer ou reculer l'un des récepteurs de quelques centimètres pour faire passer le son « à droite » ou « à gauche ». L'expérience doit se faire en plein air pour éviter des réflexions.

J'ai pourtant constaté que cette appréciation si délicate de faibles différences de phase disparaît absolument pour les sons qui dépassent une certaine hauteur. Je faisais l’expérience précédente, écoutant avec deux myriaphones non pas un bruit complexe, mais une source simple constituée par un tuyau d'orgue éloigné (en sorte que les intensités sonores qui excitaient les deux oreilles ne changeaient pas appréciablement quand on avançait ou reculait l'un des deux myriaphones, pour faire varier la phase du son qui la frappait). Dans ces conditions, et comme il vient d'être expliqué, on faisait passer très facilement le son de gauche à droite et vice versa, tant que la note émise par le tuyau était moins haute que fa, ou sol. Sitôt qu'elle devenait plus haute, l'impression que le son venait de tel ou tel côté disparaissait absolument.

Or quand on écoute à l'oreille nue, on sait très bien reconnaître si un son, même aigu, vient de droite ou de gauche ; et en particulier on le reconnaissait très bien pour les sons simples aigus donnés par les tuyaux d'orgue. Il faut donc admettre que au-dessus du sol, ce n'est plus du tout la phase qui renseigne sur le côté d’où vient le son, et il est à présumer que ce sont alors les différences d'intensité (dues à ce que pour ces sons aigus la tête porte ombre sur l'oreille opposée au bruit) qui jouent un rôle décisif, alors qu'elles n'en jouent aucun pour les sons plus graves.

On remarquera que cette discontinuité physiologique et curieuse se produit juste au-dessous de la hauteur à partir de laquelle l'appréciation de la direction d'un son par la seule différence de phase pourrait commencer à nous tromper, en raison du fait que la distance de nos oreilles est peu inférieure à la demi-longueur d’onde du sol. Cette adaptation du sens auditif à nos besoins pratiques est remarquable[65].

VIII FLUORESCENCE

Je m'étais demandé si quelque phénomène permettrait de rendre visibles, sinon les molécules individuellement, du moins les fluctuations de concentration qui doivent exister à chaque instant, par suite de l'agitation moléculaire, au sein d’une solution étendue.

Espérant trouver dans la fluorescence un tel phénomène, j'ai observé au microscope des solutions fluorescentes, soit en couches très minces dans des cuves spéciales, soit en lames minces (bulles de savon). Je n'ai pas réussi à percevoir les fluctuations, mais j'ai pu observer des apparences nouvelles.

Une gouttelette de solution fluorescente était aplatie entre le porte-objet et le couvre-objet d'une cuve Zeiss en quartz. L'épaisseur de la cuve était environ 3 microns. Un dispositif ultramicroscopique permettait d'éclairer violemment la préparation, sans qu'aucun rayon direct pénétrât dans le microscope pointé sur cette préparation. Ainsi la lumière de fluorescence était seule perçue, sans mélange de lumière excitatrice.

En raison de la minceur extrême et du faible diamètre de la zone liquide éclairée, la conductibilité thermique empêche dans ces conditions toute élévation notable de température, malgré la violence de l'illumination, même si l'on prolonge cette illumination1. Les substances fluorescentes étudiées ont été toutes les matières organiques à fluorescence visible que j'ai pu me procurer. Le dissolvant a été le plus souvent la glycérine, qui, en raison de sa grande viscosité, et de la lenteur des diffusions qui en résulte, permet de bien délimiter les modifications qui se produisent dans la région illuminée de la solution.

La destruction du corps fluorescent accompagne en général la fluorescence.

– Observant une solution d'uranine (fluorescéinate de sodium) au cinquante-millième dans la glycérine, je vis avec étonnement que la belle coloration verte, d'abord excitée sur le cercle d'illumination disparaissait peu à peu, laissant à sa place, en une vingtaine de secondes, un cercle noir (à bord net, en raison de la viscosité de la glycérine). Déplaçant un peu la préparation de façon à éclairer de nouvelles régions, 1 Notamment par observation du mouvement brownien des quelques particules qui se trouvent en suspension, et pour certaines solutions glycériques à viscosité rapidement variable, une élévation de quelques degrés, d'ailleurs sans importance, serait déjà manifeste si elle se produisait. on juxtapose aisément sous le microscope une plage brillamment fluorescente et une plage sombre que limite le contour de la première illumination.

J'ai de même observé la destruction de toutes les substances organiques fluorescentes que j'ai étudiées. J'indique dans le Tableau suivant les plus remarquables, avec leur couleur de fluorescence, et le solvant employé[66].

CORPS FLUORESCENT COULEUR DE FLUORESCENCE SOLVANT

Uranine……………………… vert glycérine (ou eau).
Fluorescéine neutre…………. vert, puis bleu id.
Phénosafranine……………… jaune d'or, puis vert franc id.
Morin……………………….. vert malachite id.
Chlorophylle………………... rouge sang alcool.
Esculine (alcaline)………….. bleu de ciel glycérine.
Quinine (divers sels)………... bleu de ciel eau ou glycérine.
Bleu de méthylène………….. rouge sang glycérine.
Tournesol (alcalin)………….. rouge brique id.
Bleu fluorescent…………….. rouge éclatant id.
Rose de Magdala……………. orange éclatant alcool et glycérine.
Anthracène………………….. Indigo violet xylol.

La teneur en matière fluorescente était généralement de l’ordre du dix-millième. La durée nécessaire pour produire un assombrissement franc de la zone fluorescente variait, suivant le corps, de quelques secondes (tournesol) à quelques minutes (rose de Magdala).

La destruction peut s'opérer par échelons, la première substance fluorescente disparaissant pour faire place à une deuxième substance également fluorescente, qui disparaît à son tour. C'est ainsi que la fluorescence, d'abord franchement jaune, de la phénosafranine, disparaît en quelques secondes, laissant une plage de fluorescence verte, tenace, qui exige plusieurs minutes pour s'assombrir. Un faible déplacement latéral de la préparation permet de juxtaposer aisément sous le microscope, en contraste vif, une plage jaune et une plage verte.

Les variations de température et de viscosité paraissent sans grande influence sur ces fluorescences de corps organiques. Excitée de même, l'uranine luit de même dans l'eau bouillante ou dans l'eau froide, ou dans la glycérine refroidie dans l'air liquide, glycérine devenue vitreuse par accroissement énorme de sa viscosité.

J’ai comparé de même, sans trouver de différence, les fluorescences du rose de Magdala à 1a température ordinaire et dans l'air liquide.

La concentration optimum.

– Nous allons voir qu’une théorie chimique rend compte des observations qui précèdent. Mais je l'exposerai plus facilement après avoir résumé d'autres observations qui se rapportent à une autre propriété des corps fluorescents, découverte par Stokes, qui en effet a montré le premier que la fluorescence des corps organiques passe par un maximum quand la concentration grandit[67].

Un énoncé plus précis doit être donné, et peut-être ne l'a pas été. On peut dire que la lumière de fluorescence émise par la solution qui emplit une cuve d'épaisseur donnée, et sur laquelle tombe normalement un faisceau excitateur de nature et d'intensité données, grandit d'abord quand la concentration grandit, passe par un maximum pour une concentration optimum, puis décroît et tend vers zéro quand la concentration continue à croître. Cette concentration optimum dépend de l'épaisseur de la couche liquide étudiée. Pour toute épaisseur, elle reste inférieure à 20 pour 100 dans les cas que j'ai étudiés (uranine, esculine) c'est-à-dire inférieure à une concentration moléculaire demi-normale.

Au lieu de considérer la fluorescence globale, considérons la fluorescence par unité de masse. Il n'a pas été signalé que, pour une intensité excitatrice donnée, la fluorescence par unité de masse[68] décroît lorsque la concentration grandit.

Car, sans cela, le phénomène de l'optimum n'aurait pas lieu. Pour le comprendre, imaginons dans un corps de pompe à fond transparent, de la matière fluorescente très diluée, recevant la lumière suivant l'axe du corps de pompe au travers du fond ; cette lumière est progressivement absorbée, et j'admets que le corps de pompe est assez long, à la dilution initiale, pour qu'il n'arrive pratiquement pas de lumière sur le piston qui limite vers l'arrière la matière fluorescente. Supposons le solvant transparent.

La matière fluorescente peut être décomposée par la pensée en un grand nombre de feuillets parallèles. Comprimons cette matière en poussant le pi ston arrière, supposé semi-perméable.

Un feuillet de rang donné continue à recevoir la même quantité de lumière (car il a toujours devant lui la même matière absorbante), et la fluorescence qu'il émet vers l'avant reste absorbée dans le même rapport. Il est clair alors que c'est seulement si cette fluorescence émise va en décroissant 1orsque la concentration grandit que, pour chaque épaisseur fixée de solution nous pourrons obtenir un maximum de fluorescence[69]. Le calcul précis se fait aisément.

Variation d'éclat d'une solution fluorescente concentrée, qu'on laisse exposée à la lumière.

– J'ai recherché le maximum de fluorescence à l'ultramicroscope sur des couches dont l’épaisseur, au maximum de 3 microns, s'est peut-être abaissée, dans certaines observations, jusqu'au dixième de micron.

J’ai, comme il était à prévoir, retrouvé le phénomène. Par exemple, une solution d'esculine à 30 pour 100 ou d'uranine à 25 pour 100 ne manifeste dans ces couches minces presque aucune fluorescence. En même temps, j’ai noté des apparences nouvelles assez curieuses, bien que faciles à interpréter.

Pour de fortes concentrations, par exemple supérieures à 20 pour 100, la fluorescence est très faible. Mais si on laisse la préparation exposée à la lumière excitatrice, on voit cette fluorescence s'aviver, d'abord très lentement, puis rapidement, jusqu’à prendre un éclat insoutenable, puis pâlir et enfin s'éteindre.

On comprend ce qui s'est produit : tant que la concentration est grande, la fluorescence est faible, mais pourtant existante, et la substance se détruit lentement. En même temps sa concentration s'abaisse, donc la fluorescence totale grandit, jusqu’à ce qu'on atteigne la concentration optimum, après quoi cette fluorescence totale décroît nécessairement jusqu'à destruction complète de la substance fluorescente. L'évolution est rapide dans la proportion où l’éclairement excitateur est intense.

Théorie chimique de la fluorescence.

– Quand j’ai eu constaté sur de nombreux exemples que le corps fluorescent est détruit par la lumière qui le fait briller, j’ai supposé que la fluorescence était peut-être le signe d’une transformation chimique et que les molécules de corps fluorescent n’émettent aucune fluorescence tant qu’elles sont intactes.

Contrairement à ce que l’on croyait, la fluorescence ne serait donc pas due à une propriété permanente de certaines molécules, douées du pouvoir singulier d’absorber indéfiniment de la lumière d’une certaine couleur pour la rendre avec une autre couleur. Mais elle résulterait, à chaque instant, de ce que certaines transformations chimiques émettent de la lumière. De même, dans une préparation de radium, ce ne sont pas ceux des atomes qui subsistent, mais ceux qui se détruisent, qui rayonnent de l’énergie.

J’ai en effet pu établir que lorsqu’une matière fluorescente illuminée se détruit, la vitesse de destruction grandit ou décroît comme l’intensité de la fluorescence.

Bien entendu, je ne veux pas seulement dire par là que si on multiplie par 10 ou 100 l’intensité de la lumière excitatrice qui frappe une solution donnée, la vitesse de destruction et la fluorescence se trouvent du même coup toutes deux multipliées par 10 ou 100. Cela aurait probablement lieu même si la fluorescence et la destruction étaient indépendantes. Car, d’une part, des mesures précises (Knoblauch) ont prouvé la proportionnalité de la fluorescence à l'intensité de la lumière excitatrice, pour une solution donnée, et, d'autre part, si la destruction est une réaction photochimique, sa vitesse doit être aussi proportionnelle à cette même intensité, pour une solution donnée.

Mais ce qui n'est pas évident, c'est que pour une intensité excitatrice maintenue fixe, et malgré que la fluorescence ne soit pas proportionnelle à la concentration, cette fluorescence reste proportionnelle à la vitesse de destruction pendant l'évolution d'une solution qui se détruit à la lumière. Or, c'est ce qui est rendu probable par les observations suivantes.

Des gouttelettes ou des traînées extrêmement minces de solution glycérique d'uranine à 14 pour 100 étaient déposées (en y promenant un fil microscopique de verre, trempé dans la solution) à la surface de la lame de quartz sur laquelle était pointé le microscope.

Sous l’influence de la lumière excitatrice, l'éclat de ces gouttelettes grandissait (comme je l'ai expliqué il y a un instant) ; il prenait sa valeur maximum correspondant à la concentration optimum après une minute environ. D'autre part, avec de la solution d'uranine à 10 pour 100, il fallait seulement quelques secondes pour atteindre cet éclat maximum.

On peut donc admettre que, en 50 secondes environ d'illumination, la solution à 14 pour 100 est réduite à la teneur de 10 pour 100. Si la réduction continuait à cette allure sans s'accélérer, il faudrait environ, un quart d'heure pour atteindre la concentration pour laquelle, à ces épaisseurs, la fluorescence a pratiquement disparu. Or, il suffisait d'attendre 1 minute, à partir de l'instant d'éclat maximum, pour noter cette disparition.

Il faut donc que, à l'inverse de ce qui se passe pour une réaction chimique ordinaire (loi d'action de masse), le taux de destruction par la lumière soit beaucoup plus élevé quand la concentration est très faible, ou, ce qui revient au même, une masse donnée se détruit d'autant plus vite qu'elle est plus diluée.

Or la fluorescence par unité de masse est également d'autant plus grande que la concentration est plus faible. C'est, en effet, comme je l'ai montré plus haut, parce que la fluorescence par unité de masse décroît lorsque la concentration croît que nous pouvons observer un maximum de fluorescence dans une couche d'épaisseur fixée.

Émission de fluorescence et vitesse de disparition du corps fluorescent varient donc dans le même sens[70] pour une masse donnée de ce corps. Au contraire, toujours pour une masse donnée, l'émission de fluorescence et la concentration varient en sens inverse l'une de l'autre.

Pour expliquer ces phénomènes, j'avais supposé que la fluorescence ne signale pas la présence des molécules encore intactes, mais leur disparition, et que c'est au moment seulement où une molécule disparaît qu'elle jette un éclair, la somme de ces éclairs constituant la fluorescence.

Tout en gardant ce qui est essentiel en cette hypothèse (émission discontinue de lumière accompagnant une réaction chimique), je dois la retoucher sous la pression de faits découverts par M. Levaillant, préparateur dans mon laboratoire, qui a bien voulu prendre comme objet de recherches l'étude chimique précise de la destruction des corps fluorescents par la lumière.

Entre autres faits, il trouve qu'un corps fluorescent ne se détruit pas toujours selon la même réaction, le solvant ou l'air pouvant jouer un rôle capital. Par exemple, l'uranine se détruit dans la glycérine par fixation d’hydrogène (avec formation d'un leuco dérivé) ; dans l'eau, elle se détruit par oxydation aux dépens de l'air dissous ; dans l'eau bien privée d'air elle garde sa fluorescence et pourtant né se détruit plus (ou du moins se régénère aussitôt détruite).

Pour concilier ces faits et ceux que je viens de signaler, je ne vois que l'hypothèse suivante : La destruction, quand elle s'opère, se fait en deux étapes. Une première transformation chimique, faite avec absorption de lumière, consiste en ce que par exemple la molécule d'uranine devient une molécule nouvelle qui, d'une part, est particulièrement apte à réagir et qui, d'autre part, si cependant elle ne trouve pas d'occasion pour réagir sur une autre molécule, régénère spontanément, après une certaine « vie moyenne », et avec émission de lumière, la molécule primitive. C'est l'intégrale de ces émissions discontinues, accompagnant la régénération spontanée de la molécule primitive, qui constitue la fluorescence.

Cette hypothèse, évidemment permise par les observations de M. Levaillant, est aussi en accord avec les miennes ; car, dans le cas de destruction, la vitesse de réaction des molécules modifiées, et leur vitesse de régénération, c'est-à-dire la fluorescence, doivent être toutes deux proportionnelles à la concentration actuelle de ces molécules modifiées.

Je dirai dans un instant (chapitre IX), que le passage par une forme moléculaire « critique » subissant une transformation spontanée avec émission d'énergie après une certaine vie moyenne (transformation analogue aux transformations radioactives) intervient probablement dans toute réaction chimique.

Au cours de ses beaux travaux sur la fluorescence, Wood a récemment prouvé, sans donner d'interprétation, que la vapeur d'iode n'émet sa fluorescence qu'un temps fini (environ 1 quinze-millième de seconde) après l'illumination. J'imagine que cette durée de 1 quinze-millième de seconde est la vie moyenne de la molécule critique produite par l'illumination de l'iode.

Ainsi, en résumé, la fluorescence n'est pas due, comme la couleur d'un liquide absorbant, à une propriété physique des molécules mêmes du corps fluorescent, mais est faite d'émissions discontinues, accompagnant une régénération spontanée de celles de ces molécules qui étaient devenues des molécules d'une autre sorte par absorption (discontinue) d'un certain quantum de lumière excitatrice.

Fluorescence limite en solutions très diluées.

– J'ai fait observer que l'existence même d'une concentration optimum suffit à prouver que la fluorescence par unité de masse (pour une intensité donnée d'un rayonnement excitateur donné) est beaucoup plus grande aux fortes dilutions qu'aux concentrations moyennes.

Il était intéressant de voir si une limite est atteinte pour des concentrations permettant les mesures. Ce travail, impliquant des mesures photométriques délicates, a été fait sous ma direction par M. Lépine[71]. En tenant compte, pour les concentrations auxquelles cela devenait nécessaire, de l'absorption de la lumière excitatrice dans les premières couches traversées, M. Lépine a établi (pour l'uranine, le bleu fluorescent, la rhodamine) que pour des concentrations comprises entre le milliardième et le deux cent-millième, « la fluorescence d'un volume donné est exactement proportionnelle à la concentration ». Il revient au même de dire : Au delà d'une certaine dilution, la fluorescence d'une masse donnée reste constante.

Il résulte également des expériences de Lépine que, pour ces matières au-dessus d’une concentration de 1 cent-millième, la fluorescence d'une masse donnée commence à décroître appréciablement.

En un langage peu différent, et puisque l'émission de fluorescence annonce la formation de molécules critiques, nous pouvons dire : Au delà d'une certaine dilution, les chances de formation d’une molécule critique fluorogène restent constantes. Ces chances diminuent quand, la solution se concentrant, les molécules sensibles à la lumière se rapprochent.

On peut dire que ces molécules sensibles se protègent réciproquement, d'autant mieux qu'elles sont plus rapprochées, d'abord de façon insignifiante aux grandes dilutions, puis de plus en plus efficacement.

Le domaine à l'intérieur duquel une molécule, sensible commence à en stabiliser une autre n'est évidemment pas à bord net. Pour les substances étudiées par Lépine, la stabilisation est déjà appréciable quand les molécules sont en moyenne à une trentaine de millimicrons les unes des autres (solution au cent-millième) ; elle est pratiquement complète quand ces molécules fluorogènes, occupant le cinquième du volume de la solution, sont à une distance moyenne de 1,5 millimicron.

Cette valeur est au reste variable, et avec la substance plus qu'avec la longueur d'onde excitatrice. C'est ainsi que pour le bleu fluorescent l’extinction de la fluorescence est déjà pratiquement complète pour une teneur de 2 pour 100, correspondant à un écartement moyen de 4 millimicrons.

Au contraire, une solution d'anthracène, même concentrée, est encore très fluorescente (Levaillant). Pour les fluorescences ou phosphorescences atomiques, l’explication de l'optimum sera cherchée dans la même direction. Le diamètre moyen du domaine où s'exerce l'action protectrice est du même ordre de grandeur, soit de quelques millimicrons. Fluorescence dans les lames ultraminces. – La stabilisation d'une molécule sensible par l’ensemble des molécules de même espèce qui se trouvent à l’intérieur d'une sphère de rayon notable trouve une vérification nouvelle dans l’apparence que je vais décrire, et en donne l'explication.

Il s'agit d'une observation faite, non plus sur des couches liquides épaisses de quelques microns, mais sur les « taches noires » de bulles de savon contenant 1 partie de bleu fluorescent pour 400 d'eau de savon. J’observais en éclairant obliquement la lame formée, de façon que seule la lumière de fluorescence pût entrer dans le microscope.

Trois genres de taches noires furent identifiées avec leurs bords nets et leurs épaisseurs bien constantes, approximativement égales, comme nous l’avons vu, à 4,5, 9 et 13 millimicrons. La fluorescence rouge se voyait sur toutes ces taches noires, et sur la lame (dont l'épaisseur allait du dixième de micron au micron). Et pour toutes les taches noires elle était plus faible que pour la lame. Mais, parmi ces trois taches, celle d'épaisseur intermédiaire était la plus brillante, puis venait la plus mince, puis enfin la plus épaisse.

L'explication est immédiate. Dans une lame extrêmement mince, de l'ordre du millimicron, si nous savions la réaliser (donc beaucoup plus mince que le diamètre du domaine de protection), une molécule sensible ne serait pratiquement pas protégée du tout. Accroissons l'épaisseur : l'éclat doit grandir, mais moins rapidement que l'épaisseur, car la stabilisation commence à se faire sentir. Accroissons encore l'épaisseur : l'effet stabilisateur grandit et peut l'emporter, en sorte que l'éclat diminue. Épaississons encore : l’effet stabilisateur atteint sa valeur maximum. Après ce moment, l’accroissement d'épaisseur ne pourra qu'augmenter l'éclat. Ce qui a lieu, en effet.

Il reste à comprendre comment deux molécules sensibles à la lumière peuvent se protéger l’une l'autre par le fait qu'elles sont suffisamment proches l'une de l'autre. L'explication, que je me borne ici à indiquer, me paraît être qu'une molé cule a moins de chances de puiser dans l'espace environnant le quantum de lumière qui la transformerait en molécule critique si dans cet espace environnant se trouvent d'autres molécules de même « couleur » qui diminuent par leur présence le flux d'énergie où peut puiser la première molécule. Cette théorie peut être précisée.

IX RADIOCHIMIE

La mécanique chimique nous enseigne que, dans un volume donné, la vitesse d'une réaction est proportionnelle aux masses actives des réactifs ; dans le cas le plus simple, celui d'une réaction unimoléculaire (dissociation ou tautomérie), cette vitesse est proportionnelle à la concentration du corps transformable.

Il n'avait pas été signalé, bien qu'après coup la remarque paraisse évidente, que cela implique, pour une masse donnée de corps transformable, une vitesse indépendante de la concentration. La probabilité de transformation pour une molécule donnée serait donc indépendante du nombre de chocs que subit la molécule.

Si nous osons étendre ce résultat au cas limite d'une raréfaction infinie, nous arriverons à penser que, dans un espace vide enclos par une enceinte de température déterminée, une molécule isolée se transformera tout d'un coup sans heurter aucune autre molécule, après une vie moyenne égale à celle qu’elle aurait si, l'enceinte étant pleine de gaz, elle subissait pendant le même temps des trillions de chocs.

Or le seul agent connu qui puisse agir sur une molécule dans un espace vide, de façon qui dépende (et dépende même beaucoup, comme fait précisément la vitesse de réaction) de la température de cet espace, est le même qui impose l'état d'un thermomètre situé dans cet espace vide : c'est, au sens général du mot, la lumière, qui emplit l'enceinte d'un rayonnement isotherme en état de régime permanent. Régime permanent où toute fréquence vibratoire est représentée avec une intensité qui grandit très vite avec la température, en même temps que la fréquence dominante s'élève, cette radiation dominante étant par exemple infrarouge aux températures ordinaires, jaune dans le rayonnement solaire, et sans doute formée de rayons X dans les couches profondes des astres.

Je me suis trouvé ainsi logiquement conduit, et de façon pour moi inattendue, à « chercher dans une action de la lumière sur les atomes un mécanisme essentiel de toute réaction chimique » (Les Atomes, n° 96 ; janvier 1913).

Je croyais alors cette hypothèse entièrement nouvelle ; en fait (et à ce que je crois pour expliquer qualitativement l'influence de la température sur la vitesse de réaction), Trautz avait récemment regardé comme possible que les réactions ordinaires soient produites par de la lumière infrarouge. D'autre part, peu après moi, et de façon évidemment indépendante, J. Duclaux énonçait (1914) des idées voisines en insistant sur ce que les réactions chimiques doivent se produire par absorption de quanta. La guerre survint alors, interrompant ou isolant les recherches.

Dès que je pus reprendre mon travail, je publiai un Essai de synthèse de la Mécanique chimique (Matière et Lumière, Ann. de Physique, 1919), où je donnais la loi d'influence de la température, et où j'insistais sur la généralité possible de la théorie radiochimique, l'étendant aux transformations atomiques telles que la radioactivité et montrant qu'elle avait des conséquences importantes pour la physique céleste. J'ignorais alors que, pendant la guerre, W. C. Mc Lewis, lui-même non averti de ma première publication, avait formulé à son tour l'hypothèse de l'intervention nécessaire de la lumière et en avait déduit la loi d'action de la température (Chem. Society, 1916). J'ai su encore plus tard que, sans connaître lui-même mes suggestions ni le travail de Lewis, Trautz a également calculé (1918) l'influence de la température en admettant qu'elle s'exerce grâce à la lumière.

Bref, l'idée que les réactions ordinaires de la Chimie sont peut-être toujours des réactions photochimiques surgissait spontanément en de nombreux esprits. Comme l'a dit précisément à cette occasion Arrhenius, si ce n'est pas la preuve qu'une idée est exacte, c'est une présomption pour qu’elle soit raisonnable et pour que sa discussion soit utile. La « Théorie radiochimique » été en effet l'objet de discussions prolongées : à la « Faraday Society » (1921), à la Société française de Chimie physique (1922) et au Conseil Solvay de Chimie (Bruxelles, 1922). Au cours de ces discussions, et notamment grâce à des questions et à des critiques, de MM. Lindemann, Langevin et Job, que je tiens à remercier, j'ai été conduit à retoucher ou à compléter ma théorie, dont je vais présenter ici un résumé.

Molécules stables. Molécules critiques.

– Toute réaction chimique peut s’écrire :

n1*A1 + n2*A2 + …… -> n1’*A1’ + n2’*A2’+ ……

ou, de façon plus condensée :

A -> A’

en appelant A1, A2,… les molécules-gramme des corps qui réagissent et A1’, A2’,... celles des produits de la réaction. Réaction que nous concevons, à l'échelle moléculaire, comme consistant dans l'apparition brusque d'un rassemblement de molé cules A' là où se trouvait un rassemblement de molécules A.

On sait que, pour toute réaction chimique, la vitesse tend vers zéro quand la température s'abaisse. Cela revient à dire qu'au zéro absolu chacune des molécules jusqu’ici considérée par les chimistes subsisterait indéfiniment, sans aucune transformation « spontanée ». Plus brièvement, ces molécules sont stables. Il est supposable que chacune de ces molécules est constituée par un certain régime de mouvements électroniques, mais il faut alors que ces mouvements ne s'accompagnent d'aucun rayonnement, sans quoi l’énergie interne diminuerait sans cesse et il n’y aurait pas de molécule définissable.

Bornons-nous, pour simplifier (on généralise sans peine), à discuter la réaction qui semble la plus simple, consistant en un réarrangement de la matière d’une molécule :

A1 -> A1’

Même si cette transformation dégage en définitive de l'énergie, il aura toujours fallu commencer par en fournir, sans quoi la molécule A ne serait pas stable au sens que nous venons de dire (pour déterminer l'explosion d'un obus, il faut commencer par dépenser un travail notable).

La matière de la molécule atteindra donc un état «critique » d'énergie interne maximum, d'où elle retombera d'elle -même dans l’état A' en perdant de l'énergie. Et, si aucun choc n'est subi durant cette seconde partie de la transformation, il faudra bien que cette énergie soit perdue sous forme de lumière rayonnée. La transformation exactement inverse est probablement possible, l'absorption de cette même lumière ramenant la matière dans l’état critique, d'où elle pourra retomber dans l'état initial A en rayonnant de l'énergie. Ce qui nous fait comprendre qu’une réaction chimique se fait toujours en deux phases, l’une avec absorption et l’autre avec émission d'énergie. C'est-à-dire, tout au moins en l’absence de chocs, avec absorption puis émission de lumière.

On pourrait admettre que l’énergie critique est seulement assujettie à dépasser une certaine valeur. J’admets, avec R. Marcelin (1914) et Lewis (qui ont également introduit cette notion), qu'elle est fixée et que l'état critique est défini.

Je précise même, pour des raisons que je ne peux exposer ici, en admettant que dans l'état critique, la matière forme une molécule proprement dite, en état stationnaire non rayonnant. Mais, dans ce régime stationnaire non rayonnant peut se réaliser par suite de hasards intérieurs une configuration instable aussitôt suivie de passage, avec rayonnement, vers un état moléculaire non rayonnant d'énergie inférieure (lequel, dans le cas général, pourrait lui-même être encore un état critique). La probabilité de passage spontané de l'état critique en l’un des états « moléculaires » d'énergie inférieure ayant une valeur définie, une molécule critique a une vie moyenne définie. La « chute » spontanée vers l'un de ces états se produirait même dans le vide au zéro absolu, toujours avec la même vie moyenne[72]. Bref un phénomène analogue (identique peut-être) à la radioactivité serait une phase nécessaire de toute réaction chimique.

Un mot nouveau serait utile : de la matière en passage de A vers C ou en chute de C vers A n' est pas une molécule, mot qu'il faut réserver à un état stationnaire non rayonnant.

Tant que la molécule critique ne se révèle pas à l’observation, c'est que sa vie moyenne est petite par rapport à celles des états stables. Mais nous avons vu comment l’hypothèse de molécu1e critique explique les fluorescences et que même une expérience de Wood donne probablement la vie moyenne d'une molécule critique d'iode.

Lumière ou chocs peuvent se remplacer.

– J'ai indiqué plus haut comment l'intervention de la lumière dans les réactions m'était apparue comme une nécessité logique. Lindemann et Langevin m'ont séparément objecté que mon raisonnement permettait deux issues : l'une était que la lumière agit seule, l’autre était que l'action d'un choc sur une molécule met à y produire son effet un temps beaucoup plus long que celui qui sépare deux chocs. Si donc la concentration devient disons 3 fois plus grande, il arrivera 3 fois plus souvent que la molécule subira un choc capable d'être « efficace », mais avant que ce choc ait eu le temps de produire son effet il arrivera 3 fois plus souvent que tout sera remis en question par le choc suivant.

Aux très grandes raréfactions tout choc capable d'être efficace aurait en effet le temps de l'être, il n'y aurait plus compensation, et la probabilité de transformation deviendrait pour une masse donnée proportionnelle à la concentration, en ce qui regarde du moins la part qu'y prennent les chocs.

J'accepte volontiers cette façon de voir ; mais je me rappelle qu'une lumière (rayons X) de fréquence convenable peut remplacer dans ses effets le choc d'un rayon cathodique d'énergie donnée ; et, plus intuitivement, je rappellerai que selon notre expérience journalière l’apport d'énergie par rayonnement ou par conductibilité (c'est-à-dire par lumière ou par chocs moléculaires) produit les mêmes effets sur la matière.

Généralisant et posant en principe cette équivalence, j'admettrai qu'une molécule peut devenir une molécule critique (d'énergie interne supérieure) sous l’action de chocs convenables, mais aussi sous l'action et par absorption de lumière en quantité L numériquement équivalente à la différence des énergies internes.

On ne croira pas que cette lumière a une nature arbitraire. Guidé par ce fait que pour celles des réactions qui sont déjà classées comme sûrement photochimiques, la lumière active peut être réduite à une radiation monochromatique[73] j'admettrai que, dans son passage sous l'action de la lumière, d'un état moléculaire défini à un état critique, la matière est transformée par absorption d'une radiation monochromatique dont la fréquence n est définie par l'état initial et l'état final ; et que réciproquement, dans le passage inverse qui peut se produire spontanément à partir de l'état critique, l'énergie perdue se trouve émise entièrement sous forme de lumière ayant cette même fréquence (si du moins il ne survient pas de chocs pendant cette émission).

Nous pourrons de façon générale symboliser la réaction qui passe, en traversant l'état critique C, de l'état stable A à l'état stable A', en écrivant :

L + A -> C -> A’ + L’

L désignant un gain d'énergie qui peut être entièrement acquise par absorption d'une lumière monochromatique d'une fréquence n fixée en même temps que les états A et C, et de même L' désignant une perte d'énergie qui peut se faire uniquement par émission d'une lumière pure dont la fréquence n’ est fixée par les états C et A'. Pour que l'énergie se conserve, il faut évidemment que la différence (L - L') soit égale à l'accroissement d'énergie interne U entre A et A'.

Plus brièvement, sans indiquer le passage par l'état critique on pourra écrire :

L + A -> A’ + L’

la réaction inverse s'écrivant en renversant le sens des flèches, et l'équilibre chimique s'écrivant :

L + A -> A’ + L’, L + A <- A’ + L’

Loi de Planck.

– J'ai indiqué[74], et cela constitue une présomption sérieuse en sa faveur, que la théorie radiochimique ainsi comprise implique ou entraîne de façon naturelle et convaincante les lois importantes découvertes par Planck et Bohr, qu'il a été jusqu'ici difficile d'introduire de façon simple et satisfaisante.

Je dois rappeler, pour y arriver, l'équation classique, expérimentalement bien établie, par laquelle Arrhenius a su exprimer, dès 1889, l'influence de la température sur la constante de vitesse :

ou s et a désignent deux constantes fixées par la réaction, R la constante des gaz, et T la température absolue. La constante k' de la réaction inverse est donnée par une formule analogue ; enfin, l'équilibre étant établi quand les vitesses inverses kc et k’c’ deviennent égales, le rapport c/c' des concentrations d'équilibre sera :

c/(c’) = (k’)/k = (s/(s'))*exp((a-a')/R*T)

Si, appliquant la thermodynamique, nous introduisons cette valeur de k/k' dans l'équation où Van't Hoff exprime l'influence de la température sur l'équilibre, nous voyons cette équation se réduire à ceci que la différence (a – a’) est égale à l’excès U de l'énergie interne de A' sur l'énergie interne de A ; c'est-à-dire à la différence (L - L') précédemment considérée :

a – a’ = L – L’.

Comme la vitesse de passage de A vers A' est la vitesse de passage de A vers l'état critique intermédiaire C, laquelle ne peut dépendre que de l'énergie L nécessaire pour atteindre cet état (et pas du tout de l'énergie L’ qui sera ensuite émise dans la « chute » spontanée sur l'état A '), l'identité précédente entraîne

a = L, a’ = L’

et l'équation d'Arrhenius s'écrit :

Or René Marcelin[75] a précisément établi dans un beau travail de Mécanique statistique (1914) que telle est la loi de probabilité de passage (par suite d'absorption d'énergie extérieure selon un régime permanent défini de hasards), d'un état à un autre qui en diffère par l'excès d'énergie L. Nous comprenons ainsi la signification théorique de la loi d'Arrhenius en même temps que nous prenons confiance dans la théorie de René Marcelin. Et nous penserons que, avec des coefficients S différents, la forme d'équation précédente sera aussi bien valable pour le hasard défini d'absorption aux dépens du rayonnement isotherme où baignent les molécules que pour le hasard défini d'absorption aux dépens des chocs moléculaires. La vitesse effectivement observée sera la somme de deux termes analogues dus séparément à ces deux effets

l'expérience ayant à fixer l'importance de chacun des deux termes. Mais nous nous occupons ici seulement du second, qui exprime, d'après un de nos postulats, l'influence d’une radiation monochromatique de fréquence n. Soit I l'intensité de cette radiation dans le rayonnement isotherme ; la vitesse de réaction due à cette radiation est évidemment une fonction f(I) définie de cette intensité, et d'autre part vérifie la loi d'Arrhenius, donc :

<math>\scriptstyle f(I) = S*exp(-L/R*T)</math>

On écrirait volontiers, bien que sans raison théorique, que la vitesse est proportionnelle à l'intensité, et cela est au reste vrai pour de faibles intensités (comme le montrent les réactions déjà classées comme photochimiques). Mais la formule précédente indique la limite S pour les grandes valeurs de I. La fonction SI/(B+I), où B est une constante, est la plus simple de celles qui satisfont aux deux conditions[76]. Il vient alors :

qui donne l'intensité I, c’est-à-dire la répartition de l’énergie en fonction de la fréquence dans le rayonnement isotherme, par la formule :


On sait d'autre part, depuis Wien, que la thermodynamique impose à cette répartition la condition

F étant une fonction universelle, et n étant l'indice de réfraction du milieu. L'identification des deux formes entraîne les deux équations :

C et H étant deux constantes universelles ; en sorte que I devient :

C'est la formule découverte par Planck en suivant un chemin plus pénible. Je ne connais pas de moyen plus simple pour l'introduire. On sait que les mesures spectrophotométriques vérifient cette formule, imposant à C la valeur 4,4.10-47 et à H la valeur 4/1000 (unités C.G.S.)

Les quanta.

– Du même coup s’est introduite la notion fondamentale de quantum : Notre théorie radiochimique avait supposé que la radiation qui, prenant une molécule, la transforme en une molécule critique d'énergie supérieure, a une fréquence fixée par ces deux états ; nous voyons ici, par l'égalité de L et de Hn, comment elle est fixée, de façon prodigieusement simple et générale qui ne dépend pas de la sorte particulière de matière transformée, et qui consiste en ce que cette fréquence est numériquement égale, à un facteur constant près, à l'excès d’énergie du second état sur le premier. Nous ne connaissons sans doute pas de relation plus profonde entre la lumière et la matière.

Si l’excès d'énergie L par molécule-gramme est égal à Hn, l’excès d’énergie par molécule sera H/N n ou h n, N étant le nombre d'Avogadro, et h étant une constante universelle égale par suite à 6,5.1027.

Ainsi, quand une lumière de fréquence n amène une molécule d'un état stationnaire à un autre état stationnaire, l'énergie interne de cette molécule s'accroît du quantum hn. Loi de discontinuité qui prend rang parmi les grandes lois de la Chimie. Réciproquement, quand une molécule passe spontanément d'un état stationnaire à un état stationnaire plus stable, elle émet une lumière pure dont la fréquence est le quotient de l' énergie perdue par la constante universelle h.

On reconnaît sous cette forme la généralisation de l’un des postulats par lesquels Bohr a réussi (1913) à expliquer le spectre de l'hydrogène. C'est une loi assez importante pour que j'aie voulu montrer ici que ma théorie radiochimique y conduit de façon très simple.

Réactions plurimoléculaires.

– J'ai raisonné sur des réactions unimoléculaires ; sans le justifier ici, je me bornerai à dire que, du point de vue radiochimique, on peut représenter la réaction la plus générale par l' équation symbolique :

W + SHn + SA -> SA’ + SHn’ + W’

où W désigne l'énergie cinétique relative des molécules A qui se rencontrent, n les fréquences des radiations qui auraient, avant cette rencontre, s'il est nécessaire, créé des états stationnaires capables de réagir spontanément pendant la rencontre (une absorption finie de lumière pendant la faible durée de cette rencontre me paraît peu vraisemblable) ; de même n' désignent les fréquences émises par les molécules qui se séparent, et W' leur énergie cinétique relative. Si on songe au caractère explosif de la transformation spontanée (de type radioactif, avons-nous dit) qui forme toujours la seconde phase de la réaction, on comprendra que ces énergies cinétiques puissent prendre en certains cas une grande importance.

Premières vérifications directes.

– Il semble au premier abord facile de vérifier directement et de manière quantitative la théorie radiochimique. Si en effet on connaît l’énergie critique L correspondant à une réaction, il n'y a qu'à diviser L par H pour avoir la fréquence n de la radiation qui doit être active (concurremment peutêtre avec les chocs moléculaires) et qui de ce fait doit être absorbée par la matière transformable. Or nous avons vu comment la loi d'Arrhenius permet de calculer L quand on connaît la façon dont la température influe sur la vitesse de la réaction. Ce calcul, fait pour une douzaine de réactions, donne un résultat qualitativement satisfaisant en ce que les fréquences calculées sont d'un ordre de grandeur raisonnable (par exemple de l'infrarouge pour les réactions étudiées au voisinage de la température ordinaire) mais troublante en ce que, pour certains cas au moins (sur lesquels Langmuir a insisté), la radiation ainsi calculée ne paraît ni active ni absorbée. Il est vrai (G. Urbain) qu’il n'est pas toujours facile de déceler une bande d'absorption, peut-être faible.

Mais il faut aussi prendre garde à une difficulté sur laquelle j'avais attiré l'attention, montrant que la fréquence calculée peut n'être qu'une somme de fréquences correspondant aux radiations réellement actives. Si en effet (comme on sait qu’il arrive souvent) une réaction comporte des réactions intermédiaires rapides, dont chacune est provoquée par une certaine radiation), la probabilité de la transformation, égale au produit des probabilités des transformations partielles sera proportionnelle au produit

dans lequel n1, n2... sont les fréquences des radiations actives. On voit bien qu'ici la loi d'Arrhenius serait vérifiée sans que pourtant le terme a permît de calculer une fréquence active. Notamment on se trouvera dans ce cas, comme je dois à M. Job de l'avoir vu, si la réaction consiste en ceci que d'abord une radiation n1 amène une molécule dans un premier état critique, puis en ce qu'une seconde radiation n2 transforme ce premier état critique en un second.

Bref, ce premier essai de vérification quantitative directe reste encore indécis. Mais des vérifications qualitatives intéressantes peuvent être données, montrant que l’agitation moléculaire et la lumière peuvent se remplacer dans leurs effets sur la matière.

J'en trouve un exemple relatif à ces fluorescences dont nous avons vu qu’elles se rattachent étroitement à notre théorie radiochimique. Il s'agit ici d’observations inédites de M. Levaillant qui a constaté que la décoloration à la lumière par hydrogénation en solution glycérique de diverses thiazines (tel le bleu de méthylène) ou oxazines (tel le bleu de Meldola) se produit à l'obscurité à 150° en tube scellé vide d'air. Cela revient à dire que cette réaction, thermique au sens ordinaire du mot à 150°, est photochimique à froid.

C'est au reste probablement le cas pour un grand nombre de réactions déjà bien connues, parmi lesquelles je citerai la transformation d'oxygène en ozone ou la transformation inverse. On sait depuis longtemps que l’une et 1'autre de ces réactions peuvent être produites, soit par voie thermique, soit à froid sous l’action de la lumière ultraviolette, une fréquence détruisant l'ozone et une autre (ultraviolet de Schumann) le reformant. Tant au point de vue « agitation moléculaire » qu'au point de vue photochimique, la proportion d'ozone et d'oxygène dépend donc de deux influences antagonistes.

Lumières antagonistes.

– Nous abordons par là ce que j'ai tout de suite signalé comme pouvant devenir un progrès pratique de haute importance obtenu grâce à la théorie radiochimique.

Soit à obtenir de l'ozone. On y arrive soit en chauffant à haute température et refroidissant brusquement, soit en soumettant de l'oxygène aux radiations complexes de l'effluve ou d'une source de rayons ultraviolets telle que l'arc au mercure. Dans les deux cas, et comme on comprend immédiatement par ce qui précède, le rendement est très médiocre.

En ce qui regarde l'action thermique proprement dite, nous ne pouvons rien, incapables comme nous le sommes de choisir les chocs moléculaires utiles dans cette « mêlée, confuse » (Job) qui forme l'agitation moléculaire.

Mais nous pourrons bien, à froid, éclairer seulement avec de l'ultraviolet ozonisant, évitant ou interceptant l'ultraviolet différent qui détruit l'ozone. Et nous élèverons ainsi à volonté le rendement.

Catalyse.

– Enfin la théorie radiochimique nous met en état de comprendre et de prévoir un groupe important de catalyses physiques. Je veux parler de ces « sensibilisations » dans lesquelles une trace de matière absorbante multiplie dans un rapport énorme la vitesse d'une réaction produite par la lumière qu'absorbe le « colorant » ajouté. C'est ainsi qu'une trace de sel ferrique accélère la précipitation de calomel dans la réaction d'Eder, ou qu'une trace de fluorescéine rend mortelle pour la matière vivante une intensité de lumière bleue sans cela tout à fait inoffensive.

Tout se passe alors comme si l'intensité de la lumière active était énormément accrue au voisinage de chaque molécule du colorant ajouté, en sorte que la probabilité de transformation d’une molécule sensible à cette lumière est très accrue lorsqu'elle pénètre dans ce voisinage. On peut admettre (Francis Perrin) que la molécule colorante entre en vibration par résonance aux dépens de la lumière, comme un inducteur de transformateur, et cède cette énergie de vibration à la molécule sensible qui passe à son voisinage et qui fonctionne à ce moment comme un induit de transformateur.

Les effets dits « effet de paroi », et spécialement les effets de catalyse des parois métalliques, pourraient bien appartenir à ce type. Extensions de la théorie radiochimique.

Changements d'état physique.

– J'ai montré que la théorie radiochimique peut s'appliquer à un changement d'état tel que la fusion ou la vaporisation (Ann. de Phys., 1919). Et l'on conçoit en effet qu'une lumière de période convenable puisse, grâce à une « résonance », arracher, aussi bien que l'agitation moléculaire, une molécule attachée à d'autres par des liens en somme élastiques.

En relation avec cette théorie des changements d'état, à laquelle je fais ici seule - ment allusion, je signalerai que M. Audubert a montré, depuis, que les gouttelettes d'une émulsion de soufre grossissent plus vite en lumière bleue, et moins vite en lumière rouge, qu'elles ne font à l'obscurité (Ann. de Phys., 1922).

Phosphorescences atomiques.

– J'ai pu étendre la théorie radiochimique aux phosphorescences atomiques qui sont produites quand certaines radiations frappent des solutions solides diluées d'atomes « phosphorogènes », telle une solution diluée d'un sel de terbium dans la chaux (Crookes, Lecoq de Boisbaudran, G. Urbain).

Considérons une substance qui, après illumination, luit dans ce que nous appelons l'obscurité, et qui est réellement l'équilibre de rayonnement isotherme (« noir ») à la température considérée.

J'ai supposé que la lumière excitatrice transforme l'atome phosphorogène (après passage par un état « critique ») en un atome modifié avec absorption d'un quantum hn de radiation incidente, puis émission d'un quantum hn' d'une autre lumière infrarouge peut-être, selon notre schéma général :

hn + A -> A’ + hn'

Quand l'illumination cesse, la solution solide contient le phosphorogène modifié A' en proportion beaucoup plus forte qu’avant illumination. Mais la régénération de l'état initial par la réaction inverse se produit, soit par agitation moléculaire, soit par absorption de radiation de fréquence n’ empruntée au rayonnement isotherme où baigne la préparation, la proportion de ces deux causes restant à déterminer. C'est la lumière émise pendant cette régénération qui constitue la phosphorescence. Nous comprendrons bientôt pourquoi (selon une règle de Stokes) sa fréquence moyenne est inférieure à celle de la lumière excitatrice.

Comme l'agitation moléculaire, aussi bien que le rayonnement isotherme, augmente ou diminue quand la température s'élève ou s'abaisse, nous comprenons que cette régénération et par suite la phosphorescence doit pratiquement cesser si on refroidit suffisamment la préparation, le corps modifié restant alors « endormi », de même que de l'ozone subsiste indéfiniment dans de l'oxygène assez refroidi. Et c'est ce que donne en effet l'expérience. Au contraire, si on échauffe la préparation, la régénération deviendra très rapide et la phosphorescence très brillante, mais très peu durable. C'est en cela précisément que consiste le phénomène de la thermoluminescence, connu depuis longtemps, mais jusqu'ici non expliqué.

Rayons régénérateurs .

– Ainsi la phosphorescence croît avec la température, comme fait la vitesse de toute réaction. Nous pouvons chercher alors, au moyen de mesures photométriques, si l'influence de la température sur la régénération vérifie la loi d'Arrhenius. Et nous aurons par là un moyen de calculer la fréquence de la radiation régénératrice (ou plus exactement la somme des fréquences régénératrices si le concours de plusieurs radiations se trouvait nécessaire).

J'ai fait ce travail pour la phosphorescence du cuivre dilué dans du sulfure de zinc, eu mesurant l’accroissement d'éclat brusquement produit par une brusque élévation de température. J'ai ainsi trouvé approximativement 1 micron pour la longueur d'onde de la radiation régénératrice.

Reste à voir si en effet cette radiation infrarouge régénère le phosphorogène. Pour s'en assurer, et en tout cas savoir s'il existe une radiation régénératrice, identique ou non à la radiation prévue, il suffira de projeter un spectre réel sur une couche mince du corps phosphorescent, maintenue à température constante, ce qui est facile.

Or cette expérience cruciale a été précisément faite, Il y a plus de cinquante ans, par Edmond Becquerel, qui observa ainsi que certains rayons rouges et infrarouges, sans élever appréciablement la température, agissaient pourtant comme eût fait une forte élévation de température, avivant d'abord, puis éteignant rapidement la phosphorescence. Cette belle expérience était restée sans interprétation ; nous voyons qu'elle donne la vérification de ma théorie, étendue à la phosphorescence. Nous comprenons du même coup que plusieurs états stationnaires non rayonnants sont possibles pour la matière d'un atome phosphorogène (au moins 3 ; l'atome stable A, l'atome critique C et l'atome A’ moins stable que A).

Spectres d’arc ou d'étincelle .

– Dans un corps solide, les atomes voisins peuvent s'influencer, en sorte que les états stationnaires diffèrent (et de façon variable selon les atomes voisins) de ce qu'ils seraient pour des atomes isolés dans l'espace ; ce qui expliquerait dans le spectre de phosphorescence émis par une portion notable de matière solide la possibilité de bandes continues. Les conditions seront certainement plus simples pour les atomes (ou les molécules) d'un gaz raréfié.

Considérons la suite des états stationnaires bien définis, en nombre peut-être considérable, qui sont possibles pour les atomes isolés d'un tel gaz. L'un de ces états au moins est stable ; les autres peuvent être tous (mais ne sont pas forcément tous) des états critiques.

L'atome pourra passer sous diverses influences (absorption d'une lumière monochromatique ou choc équivalent) d'un état à un état critique d'énergie supérieure.

D'où il retombera bientôt spontanément (comme nous avons expliqué et par suite de hasards intérieurs), avec émission d'un quantum de lumière monochromatique, sur l'un des états où l'énergie est plus petite. Ainsi s'expliquera, par un mécanisme identique à celui de la fluorescence, et de façon que l'énergie perdue soit toujours le produit de la fréquence par la constante universelle h, chacune des raies d'un spectre d'arc, de flamme ou d'étincelle. On voit que chaque atome comporte autant de régimes vibratoires pendulaires que de passages possibles entre deux états stationnaires.

Nous rejoignons ainsi, en l'éclairant peut-être sur certains points, la théorie célèbre de Bohr. Et nous nous rappellerons en particulier comment dans le cas simple de l'atome d'hydrogène regardé comme formé par un électron gravitant autour d'un « proton », Bohr a su prédire la série des orbites stationnaires possibles. Écarté de l’orbite la plus stable par une radiation qui le place sur une orbite extérieure, l'électron retombe sur sa position stable par une suite de chutes d'orbite en orbite sans nécessairement s'arrêter sur toutes les orbites intermédiaires. Les quanta émis dans ces chutes successives, égaux aux pertes successives d’énergie ont donc des fréquences inférieures (ou au plus égales) à la fréquence du quantum absorbé, et nous comprenons par extension comment, selon la règle de Stokes, la lumière émise par fluorescence ou par phosphorescence doit avoir une fréquence inférieure à celle de la lumière excitatrice.

On admire à juste titre la simplicité de l'atome conçu par Rutherford et Bohr comme formé d'un noyau positif autour duquel gravitent quelques électrons (en nombre égal au numéro d'ordre de l'atome). Je voudrais observer que ce modèle, sans aucun doute exact en ce qui regarde l'énumération des centres éléctrisés présents dans l’atome, ne laisse pas soupçonner la richesse et la complexité probables de cet édifice atomique ; et peut-être nous en apprend aussi peu à certains égards que nous en apprendrait sur un objet le fait de savoir qu'en certaines circonstances il peut être assimilé à un point matériel pesant.

Par exemple, si nous considérons de nouveau l'atome d'hydrogène, formé d'un centre positif autour duquel gravite un seul électron, nous n'apercevons pas l'origine possible du hasard qui soudain permettra la chute de l'électron sur une orbite intérieure selon la loi des quanta. Il y a donc autre chose dans l'atome, que deux centres symétriques de force. Et peut-être on devra une fois encore, avec le grand Faraday, considérer comme réels ces tubes de force qui joignent les deux centres, en leur prêtant une structure fine capable d'expliquer les périodes de vibration possibles pour les quanta émis ou absorbés et en y devinant quelque régime permanent d'agitation subtile (sans rapport avec la température) où le s hasards des chutes « spontanées » puissent trouver leur origine.

Extension de la théorie aux transmutations atomiques.

– En résumé, une même conception de la réaction « chimique », impliquant dans le cas le plus général passage endothermique d'un état stable à un état critique, puis chute spontanée exothermique de cet état critique sur un état plus stable selon le schéma général

W + SHn + A -> C -> A’ + SHn’ + W’

nous a paru jusqu'ici applicable à tous les phénomènes discontinus qui en définitive, à l'échelle moléculaire, consistent dans le passage d'une configuration non rayonnante de noyaux et d'électrons à une autre configuration également non rayonnante de ces mêmes noyaux et électrons.

Il est raisonnable d'essayer d'aller plus profondément encore et d'appliquer cette même conception aux « transmutations » portant sur les noyaux eux-mêmes, qui impliquent simultanément apparition et disparition de certains atomes, comme on le voit par exemple dans la désintégration spontanée du Radium dont chaque atome disparaît, après une vie moyenne sur laquelle nos moyens d'action n'ont pas de prise, dans une « explosion » spontanée qui projette en sens inverses avec des quantités de mouvement égales et très grandes un atome d'Hélium et un atome d'Émanation.

Cet énoncé même des lois de la « Radioactivité » peut nous faire penser qu'en effet notre conception s'applique, en ce sens que le radium par exemple est déjà un état « critique » dont la transformation est spontanée. Mais nous devons également regarder encore comme possible qu'il s'agisse d'une transformation provoquée par une radiation avec absorption d'énergie, amenant le noyau du radium en un état critique fugitif se transformant spontanément par l'explosion que nous venons de dire. La réaction s'écrirait en ce cas :

Hn + Ra -> Em + He + W’.

L'invariance constatée es propriétés radioactives forcerait alors à penser que la radiation inconnue excitatrice garde une intensité indépendante des conditions qu'on a fait jusqu'ici varier, qu'elle est par suite extraordinairement pénétrante et jaillit des régions profondes de la Terre et des divers Astres.

On peut enfin concevoir que telle transmutation soit spontanée, et que telle autre soit provoquée par une radiation.

Divers essais ont été déjà tentés pour fixer ce point important. M. Piccard a constaté que l'Uranium X garde 1a même constante de temps au sommet et à la base d'une montagne et nous avons constaté d'autre part, M. Holweck et moi, par un moyen tout à fait différent[77], que le Radium A et le Radium B ne paraissent pas sensibles à un rayonnement issu du sol.

Après ces tentatives, on pensera sans doute plus volontiers que la radioactivité est réellement « spontanée ». La vérification restera pourtant utile pour chaque élément radioactif, et particulièrement pour ceux dont la vie moyenne est très longue, comme l'Uranium ou le Thorium (en sorte qu'on ne soit pas étonné du débit qui serait nécessaire pour le rayonnement issu du sol).

Perte ou gain de masse par transmutation.

– J'ai indiqué à diverses reprises (notamment au Conseil Solvay de 1921) une méthode précise pour atteindre ce résultat, méthode qui pourra être mise en oeuvre dès que les mesures de masse atomique auront une précision nettement supérieure au millième, comme il arrivera sans doute bientôt en suivant la voie ouverte par J. J. Thomson, Aston et Dempster.

On sait en effet que si la matière se conserve au cours de ses transformations, en en ce sens que le nombre de centres chargés qui la constituent demeure invariable, ni son inertie (difficulté de mise en mouvement), ni son poids (attraction par d'autre matière) ne se conservent. De façon précise, une belle théorie d'Einstein a montré qu'un corps qui perd l'énergie W perd du même coup la masse W/c2, c désignant la vitesse de la lumière. Cela fait, par molécule-gramme, moins que l cent-millième de milligramme pour nos réactions « chimiques ». Mais la variation peut devenir plus notable pour des transformations plus profondes.

Reprenons par exemple le cas de la transmutation du Radium :

Ra -> Em + He + W’

W’ désignant l'énergie cinétique (connue) des atomes d’Hélium et d'Émanation lancés au moment de la transmutation (sous forme de rayon a et de rayon a). A cette énergie correspond une masse W’/c2 notable (de l’ordre du centigramme). Si maintenant la transmutation du Radium est spontanée, la masse atomique de ce Radium sera juste égale à la somme de la masse atomique de l'Émanation, de la masse atomique de l'Hélium, et de la masse W’/c2 qu'on vient de calculer. En tout cas elle ne peut pas être supérieure ; mais supposons qu'elle soit inférieure, le déficit étant m nous devrions alors conclure que l'énergie mc2 a été fournie, probablement sous forme d'un quantum hn égal à mc2, cédé par une radiation monochromatique de fréquence n. J'ai proposé le nom de Rayons Ultra X pour toute radiation ainsi capable de transformer des noyaux atomiques alors que la lumière ordinaire et les rayons X déplacent seulement les électrons qui gravitent autour des noyaux.

Si de telles mesures de précision ne sont pas encore faites pour les corps classés comme radioactifs, nous pouvons utilement discuter dès maintenant nos connaissances sur d'autres poids atomiques et montrer dans quel sens se poursuit probablement l'évolution des éléments.

Sens de l'évolution atomique .

– L’exemple des corps radioactifs, qui subissent une désintégration en atomes de plus en plus légers, a fait supposer que ce genre de transmutation était la règle, la matière passant progressivement de la forme atomes lourds dans la forme atomes légers.

Je pense que, dans l'ensemble, c'est le sens d'évolution inverse qui est la règle. J'en vois une preuve dans ces Nébuleuses diffuses (telle la Nébuleuse d'Orion), où nous voyons un état prodigieusement dilué antérieur au rassemblement sous forme stellaire qu'opéreront les forces de gravitation. Ces Nébuleuses devraient contenir une forte proportion d'atomes lourds si l'évolution de la matière se poursuivait à partir de tels atomes. Or précisément on ne trouve dans le spectre de raies de leur lumière que les raies caractéristiques des atomes les plus légers, Hydrogène, Hélium, et ce Nébulium pour lequel Fabry et Buisson trouvent un poids atomique égal à 2 ou 3. Cependant notre regard perce jusque dans ses régions les plus profondes la matière transparente des Nébuleuses et d'autre part la température (évaluée à 12.000° ou 15.000° par Buisson et Fabry) est assez élevée pour que tout corps y soit volatilisé. Hydrogène, Hélium et Nébulium sont donc les seuls atomes présents en proportion notable dans la Nébuleuse primitive. Atomes légers dont il faut bien admettre qu'ils se condensent ultérieurement dans les atomes plus lourds que nous révèlent les spectres des Étoiles.

Si nous nous rappelons alors que tout poids atomique est approximativement entier (ainsi que Prout l'avait jadis annoncé sans preuves et comme l’a montré le dédoublement, en isotopes à poids atomiques entiers, des éléments tels que le chlore) ; si nous admettons que cela tient à ce qu'en définitive tout atome est fait d'Hydrogène (et Rutherford paraît bien au reste avoir fait jaillir des atomes d'hydrogène hors de noyaux d'azote ou d'aluminium bombardés par des rayons a), nous penserons que la matière primitive des Nébuleuses est l'hydrogène. (Plus exactement nous penserons que les éléments matériels au delà desquels ne remonte pas notre Histoire sont l'électron négatif, et le proton positif environ 2.000 fois plus lourd qui est le noyau de l'atome d'hydrogène).

La condensation d'hydrogène en hélium se fera peut-être en deux ou trois étapes, avec formation intermédiaire de nébulium ; en définitive, par addition des équations de transformation correspondantes, elle pourra s'écrire, selon notre schéma :

W + HSn + 4H -> He + HSn’

en appelant W les énergies cinétiques (peut-être notables) avant rencontre, n les fréquences des radiations absorbées (s'il y en a), et n’ les fréquences des rayons ultra X émis à chaque transformation.

Or les mesures précises classiques des poids atomiques de l'hydrogène et de l'hélium donnent, pour 4H, 32 milligrammes de plus que pour He ; perte de masse impliquant une diminution d'énergie interne égale à 0,032 c2 d'après la formule d'Einstein, soit 3.1019 ergs. L'énergie rayonnée HSn’ comprend outre ces 3.1019 ergs, l'énergie inconnue W + HSn.

Si la condensation se faisait en une fois avec une seule émission de fréquence n’ cette fréquence serait donc supérieure à 7.1021, très supérieure à la fréquence des Rayons X les plus pénétrants que nous connaissions. Même si l'hélium se forme par étapes (2 ou 3), les rayons émis seront encore extrêmement « durs ».

Réciproquement l'hélium doit pouvoir être dissocié par ces mêmes rayons ultra X avec régénération des atomes d'hydrogène : ce serait une radioactivité endothermique, et non spontanée, qui peut se produire dans les astres à titre de phénomène secondaire beaucoup moins important que la disparition inverse d'hydrogène[78].

Après l'hélium apparaîtront successivement les éléments plus lourds, et pour beaucoup d'entre eux sans émission d'énergie comparable à celle qui accompagne la formation de l'hélium. On sait en effet que par exemple le poids atomique du carbone est, au dix-millième près, 3 fois celui de l'hélium ; il ne se perd donc pas dans cette union plus que 1 milligramme (ce qui permet encore une «chaleur de réaction », inaccessible à nos balances actuelles, mais pourtant de quelques milliards de calories).

L'équation d'une telle réaction s'écrirait

W + 4He -> C + Hn’

(en admettant qu'il n'y a pas de radiation absorbée). Il faut observer que l'égalité (approchée) de 3He et C n'implique pas que la fréquence n’ du rayonnement émis est petite, car Hn’ est au moins égal à l'énergie cinétique, peut-être très grande, que devaient avoir trois noyaux positifs d'hélium pour s'approcher à la distance colossalement petite où, la loi de Coulomb cessant de s'appliquer, la réaction nucléaire devient possible. Ce ne seront peut-être donc que des rayons très durs qui pourront démolir le noyau de carbone en régénérant l'hélium.

Les mesures précises de poids atomiques montreront sans doute prochainement si dans la formation d'atomes de plus en plus lourds il se fait parfois des pertes de masse comparables à celle qui accompagne la formation d'hélium. J'ai déjà fait remarquer que le poids atomique 126,91 de l'iode (qui n'a pourtant pas d'isotope, comme l'a vu Aston) diffère appréciablement d'un entier. Cette remarque paraît se généraliser déjà pour les poids atomiques supérieurs à disons 50 (poids atomiques tous un peu inférieurs aux valeurs entières).

Il n'est au reste pas exclu, comme me l'a fait observer M. J. Becquer el, qu'à la faveur d'une évolution spontanée générale accompagnée de perte de masse, et grâce à l'absorption de rayons ultra X puissants, certains genres d'atomes se forment avec accroissement de masse.

Enfin, la réalisation d'états « critiques » de vie moyenne observable correspondra, comme nous avons vu, à des radioactivités spontanées.

Et j'insiste encore sur l'importance capitale des mesures de poids atomiques qui seront sans doute notre moyen le plus sûr pour connaître les lois de l'évolution de la Matière.

Origine de la chaleur solaire .

– Nous venons de dire quel énorme dégagement d'énergie accompagne la condensation d'atomes d'hydrogène en atomes plus lourds. J'ai fait observer (Ann. de Phys., 1919) que ce phénomène explique le prodigieux rayonnement qui émane du Soleil ou des Étoiles et que c’est en fait la première explication acceptable.

On sait comment l'étude des fossiles et des terrains sédimentaires d'une part, et d'autre part celle des divers minerais radioactifs, ont amené, en remarquable concordance, à penser que le Soleil rayonne à son taux actuel depuis au moins 1 milliard d'années.

La seule explication jusqu'ici présentée (Helmholtz et Kelvin) cherchait l'origine de la chaleur dégagée dans l'énergie de gravitation transformée en énergie cinétique, puis en chaleur par suite de chocs, à mesure que les masses formant la nébuleuse primitive se rapprochaient et prenaient les positions qu'elles occupent dans le Soleil actuel. La théorie dite « météorique » n'est évidemment pas différente. On a égale - ment supposé que des corps très endothermiques formés pendant la condensation du Soleil se détruisent peu à peu en restituant l'énergie alors absorbée. Mais cette énergie aurait toujours sa source dans l’énergie de gravitation, et ces corps endothermiques régulateurs auraient seulement pour effet de maintenir un régime quasi stationnaire pendant le rayonnement dû à la seule gravitation.

Or on trouve approximativement que cette énergie de gravitation pourrait entretenir le rayonnement solaire au taux actuel pendant environ 30 millions d'années.

On voit à quel point cette théorie était insuffisante, et on ne comprend pas que Kelvin ait pu écrire qu'elle est certainement vraie « parce qu'on ne peut concevoir aucune autre explication naturelle ». L'argument serait resté peu convaincant même si en effet on ne savait imaginer d'autre explication. Mais les chiffres qui précèdent montrent que la seule transformation de l'hydrogène primitif en hélium, carbone ou oxygène, dégagerait assez d'énergie pour entretenir le rayonnement solaire au taux actuel pendant environ cent milliards d'années.

Nous expliquons donc aisément les quelques milliards d'années de rayonnement quasi stationnaire dont l'Histoire de la Terre apporte la preuve. Encore ne savonsnous pas si la condensation atomique ne peut pas aller très au delà des atomes qui nous sont familiers[79].

C'est en somme une réserve d'énergie potentielle électrostatique qui se transforme en lumière par rapprochement de protons et d'électrons, réserve colossalement plus grande, que la réserve d'énergie de gravitation à laquelle Helmholtz avait pensé. Énergie de gravitation qui joue pourtant peut-être le rôle important de l'allumette qui met le feu à un brasier, en réalisant par un échauffement préliminaire énorme, les conditions qui permettent (par agitation suffisante ?) un rapprochement suffisant des atomes d'hydrogène qui doivent s'unir.

De tels échauffements, lents dans les Nébuleuses, se produisent brusquement quand, dépensant l'énergie cinétique empruntée à leur énergie relative de gravitation, deux astres (Étoiles géantes ou Nébuleuses en voie de condensation) se heurtent, allumant en quelques heures dans le ciel une Nova. Cette Nova ne brillera pas plus de quelques millions d'années, si sa réserve d'hydrogène est épuisée.

*
*   *

On voit qu'une même conception simple peut s'appliquer à toute transformation, discontinue de la Matière, moléculaire, atomique, ou subatomique, et relie ces transformations avec l’émission ou l'absorption de Lumière, de l'infrarouge aux rayons X et au delà.


Jean Perrin

  1. C. R., 1895.
  2. Elles m'ont valu le Prix Joule, de la Société Royale de Londres.
  3. Wien, Verhandl. de Phys. Gesellsch., XVI, 1897, p.165. J.J. Thomson, Phil. Mag., XLIV, 1897, p.293. Lenard, Electrostatischen Eigenschaften der Kathodenstrahlen (Ann. der Phys. u. Chem., LXIV, 1898, p.279).
  4. Thèse, mai 1897, et Ann. de Ch. et Phys., août 1897. Des expériences quantitatives ont été faites peu après par J. J. Thomson avec un dispositif amélioré (déc. 1897)
  5. J'ai, par exemple, observé l'arrêt du rayon (par la suppression des fluorescences qu'il excite) pour une chute de potentiel de 30.000 volts.
  6. Au laboratoire de MM. Violle et Brillouin.
  7. Phil. Mag., décembre 1897.
  8. En fait, 1840 fois plus grand, comme on l’a vu depuis avec précision.
  9. C.R., mars 1896.
  10. Alors encore élève à l’École Normale.
  11. Éclairage électrique, juin 1896.
  12. De façon indépendante, et en même temps (Phil. Mag., nov. 1896), J. J. Thomson et Rutherford (à ce moment son élève et collaborateur) ont développé la même conception. Ils opéraient en insufflant rapidement sur des électrodes le gaz amené par un tube dont la paroi est traversée à angle droit par des rayons X. Ce dispositif a l'inconvénient de superposer à l'ionisation propre du gaz l'effet de paroi dont nous allons parler. Et cela explique en particulier comment ils ont pu trouver que l'ionisation de l'hydrogène est la moitié de celle de l'air, au lieu que cette ionisation par les rayons X ordinaires est pratiquement nulle, comme je l'avais reconnu.
  13. Par exemple, on les recueille très facilement en disposant sur leur parcours, loin du rayon X qui les a libérées, une feuille de papier paraffiné (Thèse, 1897).
  14. Dans l'air, car, dans l'hydrogène, l'aluminium donne un effet considérable, ce qui est intervenu, à leur insu, dans les expériences de J. J. Thomson et Rutherford.
  15. Ions, électrons, corpuscules, t. I, p.140 (Gauthier-Villars), et C. R.., 1901. M. Sagnac avait de plus établi (Thèse, 1898) l'existence de rayons X secondaires émis par les points frappés. Leur action semble ici peu importante.
  16. Les principes, chez Gauthier-Villars (1901).
  17. J'ai montré que les raisonnements de Hittorf donnent les vitesses des ions par rapport à un système de référence défini, qui n'est ni le solvant, ni le récipient qui contient l'électrolyte, mais qui est une section de l'électrolyte définie par la condition de laisser toujours de chacun de ses côtés, en hydrogène et oxygène (combinés ou non), de quoi faire autant d'eau qu'il y en avait au début. Ce système de référence n'est immobile par rapport au solvant que pour une dilution infinie. Hydrates d'ions. - Cette discussion, outre son utilité logique, pourra aider à connaître le nombre de molécules d'eau chimiquement fixée sur chaque sorte d'ion, en déterminant la somme algébrique des quantités d'eau que chaque ion-gramme entraîne avec lui. Résultat qui se déduit de l'influence de la dilution sur les mobilités calculées selon le procédé de Hittorf. Malheureusement les mesures assez précises sont rares. J'ai du moins pu voir ainsi que les ions monovalents CL-, NO3-, K+, NH4 +, ne transportent probablement pas d'eau chimiquement combinée (1907).
  18. Quant au transport des ions, on vient de voir par la note précédente comment j'ai repris le problème et avancé un peu sa solution.
  19. Journal de Chimie physique (Genève), 1904 et 1905, et première Notice à l’Institut (1918), p. 33-55.
  20. Les ions constitutifs OCH3- et H+ de l'alcool méthylique paraissent jouer, pour les solutions dans ce liquide, le même rôle que les ions OH- et H+ dans l'eau (C. R., t. 138, p.898 et 1165).
  21. Disons seulement que la charge par les ions constitutifs s'explique en même temps que la mobilité apparente anormalement élevée de ces ions.
  22. On conçoit par exemple qu'un ion négatif tétravalent soit plus fortement attiré qu'un ion bivalent par un ion H+ périphérique.
  23. Guillaume (Thèse Genève, 1908) ; Larguier de Bancels (C.R., 1909) : Mäkelt (Z. Phys.Chem., 1909) ; Riéty (Ann. de Phys., 1913) ; Taggart (Phil. Mag., 1914) ; Mlle Choucroun (Journ. Phys., 1920) ; Glixelli (Z. Phys. Chem., 1909).
  24. Se prouve par le sens du transport de bulles gazeuses dans le champ électrique (Taggart).
  25. Jacques Loeb (Studien from Rockefeller Institute, 1920) propose d'expliquer les règles d'électrisation que j'ai données en admettant que la plupart des parois sont, comme l'albumine, des électrolytes «amphotères», en même temps acides et basiques, avec dissociation superficielle qui les chargerait alors, en effet, positivement en milieu acide, négativement en milieu basique. Il m'est impossible d'admettre que, par exemple, le charbon, le soufre, la naphtalène, ou le gaz hydrogène sont des électrolytes amphotères. Cette remarque n'enlève du reste aucune valeur aux expériences de Loeb, qui, toute théorie à part, montrent l'intervention de l'électrisation de contact dans les propriétés des membranes.
  26. Mlle Choucroun a vérifié que pour divers colloïdes la coagulation n'est pas accompagnée d'un renversement du signe de la charge.
  27. Bournat (C. R., 1909) ; Frion (Diplôme d'études, 1910) ; Pellel-Jolivet (Revue des Matières colorantes, 1907, 1908 et 1909).
  28. Pierre Girard (C. R. mai 1908 ; avril 1909 ; juillet 1910 etc.).
  29. Les Principes, préface, p. IX ; - Les Hypothèses moléculaires (Revue scientifique,190I) ; La Discontinuité de la Matière (Revue du mois, 1906).
  30. W. Ramsay, Delsaulx et Carbonnelle, Gouy, Einstein, entre 1875 et 1906, rattachèrent le mouvement brownien à l'agitation moléculaire, cela évidemment sans connaître leurs publications réciproques, circonstance curieuse qui témoigne du discrédit partiel où tombèrent quelque temps les hypothèses moléculaires.
  31. J'attire l'attention sur cette justification de l'hypothèse d'Avogadro, qui dispense de recourir à des considérations plus incertaines et difficiles sur l'équipartition de l'énergie.
  32. Il suffit d'écrire (théorème fondamental de l'hydrostatique) que toute tranche horizontale du gaz peut être regardée comme soutenue par la différence des pressions qui s'exercent sur les faces inférieure et supérieure, d'où résulte, par intégration, la relation entre la pression et la hauteur.
  33. On écrira, de même, que le poids des granules en suspension entre deux niveaux, diminué du poids du liquide qu'ils déplacent, est égal à la différence des pressions (osmotiques) qui seraient exercées en ces deux niveaux par les granules sur des pistons (perméables au liquide intergranulaire). Le calcul est le même.
  34. Je passe sur d'autres procédés qui déterminent également, de façon concordante, le poids du grain.
  35. Dans les couches supérieures, si le liquide intergranulaire est plus dense que les grains.
  36. En un temps de l'ordre de une heure, quand le liquide intergranulaire est de l’eau, et la hauteur de la cuve de l'ordre du dixième de millimètre.
  37. Mesures faites par M. Bruhat (Diplômé d'études) dans mon laboratoire (1912).
  38. Sphérules de gomme-gutte de diamètre 0m74 ; 17.000 grains comptés à des niveaux différents.
  39. Question de temps et d'argent : une excellente machine centrifuge serait nécessaire.
  40. On sait que cette théorie s'exprime par l'équation (p+a/(v^2))*(v–b)=R*T qu'on se contentera d’écrire ici sous la forme approchée : p=R*T/v+(b*R*T–a)/(v^2) où R est la constante des gaz, T la température absolue, v le volume de l'émulsion qui contiendrait, à la concentration considérée, N grains, b le « volume» quadruple du volume vrai de ces N grains et a une constante d'autant plus grande que la cohésion, l'attraction des « molécules » les unes par les autres est plus grande.
  41. La colonne verticale sera emprisonnée entre deux glaces parallèles d'écartement connu. Une photographie instantanée permettra de compter à loisir les grains, déterminant la concentration en chaque niveau, et le nombre au-dessus de chaque niveau.
  42. René Costantin, engagé volontaire, mort au champ d'honneur (1915). Son diplôme d'études, remarquable (C. R. 1914), dont les résultats sont ici résumés, donnait de grandes espérances.
  43. Pour des concentrations supérieures à 3 pour 100, la loi de Van der Waals même ne convient plus, mais la compressibilité reste mesurable, donc la loi de compressibilité reste empiriquement connue.
  44. Acad. Sciences, Cracovie, déc. 1907.
  45. Par des considérations de thermodynamique statistique.
  46. Il ne l'est pas dans la direction verticale, à cause de la pesanteur.
  47. Ce qui, pour Einstein, résulte des idées de Boltzmann sur l'équipartition de l’énergie.
  48. Selon une formule de Stokes qui égale la force motrice (poids de la sphère) à la force de frottement 6*p*a*z*v (z étant la viscosité et v la vitesse de chute). Cette extension pourrait sembler discutable, car la vitesse (vraie) d'agitation du granule doit être de l'ordre d'un million de fois sa vitesse moyenne de chute. Mais, en fait, je l'ai vérifiée par l'expérience (C.R., 1908).
  49. Ces déplacements doivent se répartir, autour du déplacement moyen, comme les vitesse moléculaires autour de la vitesse moyenne, selon la célèbre loi de Maxwell (le raisonnement est le même). La manière sans doute la plus frappante de faire cette vérification (et dont je dois l'idée à Langevin) consiste à transporter parallèlement à eux-mêmes les déplacements horizontaux observés, de façon à leur donner une origine commune (ce qui revient à considérer des grains qui auraient même point de départ). Les extrémités des vecteurs ainsi obtenus doivent se répartir autour de cette origine comme les balles tirées sur une cible se répartissent autour du but. C'est, en effet, ce que j'ai constaté quantitativement.
  50. Einstein ne supposait pas qu'on pût vérifier sa formule.
  51. Cabanes, Annales de physique, 1921.
  52. Ann. de phys., 1913. (C. R..1921 et 1922.) Des expériences extrêmement élégantes de Devaux (1904), puis de Labrouste (1914), montrent qu'on peut refouler la matière grasse rien qu'en soufflant sur l'eau qui la porte, et sans autre matériel qu'une cuvette et de l'eau courante déceler la présence de pellicules grasses qui ne pèsent guère que 1 milligramme au mètre carré. Mais au contraire de ce que ces auteurs ont cru, la densité superficielle atteinte par ce refoulement (et qui varie avec l'intensité du souffle) ne marque aucun seuil, aucune discontinuité (pas plus que, pour une densité superficielle un peu plus grande, l'arrêt des mouvements du camphre, signalé par Rayleigh).
  53. Cette discontinuité a échappé à lord Rayleigh, sans doute parce qu'il employait des corps impurs (huiles du commerce). Mais il a bien vu (Phil. Mag., 1895) qu'au delà de 2 milligrammes au mètre carré, la tension ne décroît plus que très lentement, si elle décroît.
  54. Soc. Journ. Americ. Chem., 1916-1917.
  55. Marangoni, Nuovo Cimento, 1871.
  56. Pour la gomme-gutte, le liquide de tête, jaune, se colore violemment en rouge brun par addition d'alcali.
  57. Phil. Mag., 1906, p.751.
  58. Bien que cela arrive : j'ai vu des cercles jaunes naître dans une plage orange et s'élargir rapidement.
  59. P. V. Wells, Sur l'épaisseur des lames stratifiées, Thèse, Paris, 1920, et Annales de Physique, 1921.
  60. II est remarquable que les lois de la réflexion restent applicables pour des épaisseurs qui sont de très petites fractions de la longueur d'onde.
  61. René Marcelin, mort pour la France (1914).
  62. Je dois dire que Wells suggère (Ann. de Phys., 1921, t. XVI, p.108), mais à ce qu'il me semble sans preuve, que la tache noire ne contient pas d'eau du tout, non plus que les lames stratifiées.
  63. Voir une note posthume (Annales de Phys., X, p.189, 1918) où René Marcelin donne 0,7 mm pour distance des plans de clivage dans le mica.
  64. Nom proposé par M. Grumbach.
  65. J'ai su depuis que lord Rayleigh (Papers, V) avait énoncé la même conclusion. J'ai cependant signalé mes observations, qui se rapportent à des expériences plus directes et toutes différentes. (Lord Rayleigh faisait arriver par deux tubes à ses oreilles des sons provenant de deux diapasons différents, réglés de façon à avoir presque même hauteur. L'observateur avait alors l'impression d'un son unique, venant de droite ou de gauche, selon le signe de la différence de phase. Cette impression de son venant d'un certain côté disparaissait quand la hauteur du son dépassait le sol.)
  66. Plusieurs des corps énumérés dans ce Tableau sont des matières colorantes bien connues. Dès que l'on sait qu'ils sont détruits par la lumière avec émission de fluorescence, il semble difficile de n’être pas tenté de généraliser ce résultat aux colorations si nombreuses dont on dit qu'elles « passent » à la lumière. On supposera du même coup que cette destruction s'accompagne de fluorescence (visible ou invisible). La vérification reste à faire.
  67. Phénomène qui se retrouve, comme on sait (Lecoq de Boisfondran ; G. Urbain), pour les phosphorescences atomiques, excitées, par exemple, sous l’action des rayons cathodiques.
  68. Le microgramme serait une unité commode.
  69. Un raisonnement de même genre étend au cas des phosphorescences cathodiques la proposition énoncée dans ce paragraphe.
  70. Et proportionnellement l'une à l'autre, je présume, sans avoir encore fait les mesures photométriques nécessaires.
  71. Lépine (tué à l’ennemi en 1915), Étude expérimentale sur la fluorescence des solutions (Paris, Diplômes d'études, n° 171, 1914). Ce diplôme remarquable par sa précision conduit à diverses conclusions intéressantes, en outre du résultat ici indiqué.
  72. Au contraire, la vie moyenne d'un état stable dépend des causes extérieures (chocs ou radiations) qui peuvent lui fournir l'énergie nécessaire pour le faire passer dans un état critique.
  73. Car la réaction se produit encore si on ne laisse passer qu'une raie dans la bande qui produit cette réaction. Ce qui suffit à mon raisonnement. Si l'on se demande par ailleurs pourquoi un grand nombre de raies (bande) peuvent agir, je répondrai en généralisant la discussion qu'on va trouver un peu plus loin au sujet du spectre de raies de l'hydrogène.
  74. Transactions of the Faraday Society, 1922.
  75. Mort pour la France en 1914 ; «Contribution à la cinétique physico-chimique» (Thèse, 1914 ; Ann. de Phys., 1915).
  76. On s'explique cette forme si on songe qu'une rencontre efficace entre lumière et molécule sensible exige : 1° que les ondes frappant la molécule aient par rapport à elle certaines dispositions d'orientation et de phase dont la probabilité semble indépendante de l'intensité, donc de la température ; - et 2° que ces ondes apportent une énergie suffisante pendant la durée de cette disposition favorable. Cette dernière condition se réalisera probablement d'autant mieux que la température sera plus élevée ; la probabilité de transformation tendra donc vers une limite fixe.
  77. Si un atome était détruit par une radiation venue du sol, il prendrait avant explosion une quantité de mouvement vers le haut, qui se marquerait notamment en ce que les rayons a « de recul », dirigés vers le haut auraient un parcours plus grand que ceux dirigés vers le bas. Effet que nous n'avons pas pu mettre en évidence (1921, laboratoire de Mme Curie).
  78. Cette destruction d’hélium pourrait bien avoir lieu dans les couches supérieures de notre atmosphère sous l'action de rayons émanés du Soleil et capables de traverser une couche d'air notable. J'expliquerais ainsi l’absence énigmatique des raies de l’hélium dans l'aurore boréale, et aussi pourquoi même dans les couches inférieures la proportion d'hélium est plus faible qu'il ne semble raisonnable d'après ce que débite sans cesse le sol, toujours radioactif.
  79. Donnant peut-être des noyaux atomiques de charge nulle (isotopes de rang zéro) prodigieusement condensés.