Conférence faite aux étudiants et aux amis de l’université de Paris, le 16 février 1901. par M. Jean Perrin, chargé du cours de Chimie à la Sorbonne.
Nos sens ne nous permettent pas de percevoir directement la matière au delà d’un certain degré de petitesse ; notre vue, par exemple, ne peut nous faire distinguer dans un objet des détails plus petits que le dixième de millimètre. Nous n’en concluons pas, cependant, que ces détails n’existent pas, et nous sommes naturellement conduits à nous demander comment nous percevrions l’univers si nos sens devenaient tout d’un coup plus subtils.
Les premières hypothèses moléculaires ont été sans doute proposées dans le but de répondre à cette question, sans peut-être qu’on remarquât assez qu’elle ne comportait pas de réponse définitive. Elles eurent, au début, un caractère uniquement philosophique, sans aucun rapport avec l’expérience. Les uns étaient partisans du « plein », de la matière indéfiniment continue : d’autres, au contraire, croyaient au « vide », , au discontinu, aux « atomes » : c’était là une question de goût. Nul ne songeait à une vérification expérimentale, et, pour être juste, dans l’état où se trouvait la science, nul n’y pouvait songer. Aussi, malgré la haute antiquité des hypothèses moléculaires, il n’y a guère plus d’un siècle qu’elles ont pénétré dans la véritable science, en se montrant capables d’expliquer simplement certains faits connus, et d’en faire découvrir de nouveaux. En ce sens, leur rôle n’a fait que grandir, et l’on peut aujourd’hui les considérer comme un des plus puissants outils de recherche que la raison humaine ait su créer.
Divisibilité de la matière - Tout d’abord, limitons le problème d’une façon nette : je ne veux ici parler que de ces matières dites homogènes, - corps purs ou solutions, - qu’étudient les chimistes ou les physiciens. Tels sont l’or ou l’eau. Même aux plus forts grossissements, ces corps apparaissent comme parfaitement continus, parfaitement « pleins », De même, ils apparaissent comme indéfiniment divisibles, dans la limite actuelle de nos moyens d’investigation.
Il est bon d’indiquer, dès maintenant, jusqu’où nous savons aller dans ce morcellement de la matière.
Le microscope nous permet d’apercevoir des détails ayant seulement le quart d’un millième de millimètre. A ce propos, rappelons qu’on appelle micron le millième de millimètre. C’est une unité commode pour évaluer la grandeur d’objets extrêmement petits, comme sont les microbes. Le micron est au millimètre ce que le millimètre est au mètre.
Ainsi le microscope nous conduit jusqu’au quart de micron. Pour des raisons qui se rattachent à la nature ondulatoire de la lumière, il est d’ailleurs peu probable que le microscope, si bien construit qu’on le suppose. nous conduise jamais beaucoup au-delà du dixième de micron.
La division par voie mécanique nous conduit, en certains cas, aussi loin que le microscope. Par exemple, on a pu réaliser des feuilles d’or battu dont l’épaisseur était seulement d’un quart de micron ; naturellement, leur fragilité devient d’autant plus grande qu’elles sont plus minces, et si l’on ne va pas plus loin, ce n’est pas parce que l’or cesse d’être divisible, mais parce que nous ne sommes plus assez adroits pour manipuler ces feuilles très minces.
Nous pouvons cependant réaliser de la matière sous une épaisseur encore beaucoup plus faible. Certainement chacun de nous a fait l’expérience que je vais citer. Lorsqu’on souffle une bulle de savon, en outre des couleurs éclatantes qui ont fait notre admiration, on observe facilement de petites taches rondes et noires dont l’apparition est presque immédiatement suivie de la rupture de la bulle. Quand j’étais enfant, je croyais que ces taches rondes étaient des trous dans l’eau de la bulle ; Newton, qui, comme vous le croirez sans peine, était meilleur observateur, constata que ces taches ne paraissent noires que par contraste, qu’elles réfléchissent encore de la lumière, et même que, dans leur intérieur, peuvent apparaître de nouvelles taches, encore plus noires et qui peuvent pourtant renvoyer de faibles images d’objets brillants ; du soleil par exemple. Je vais essayer de vous montrer ici de semblables taches noires. Vous voyez sur cet écran l’image renversée d’une membrane d’eau de savon supportée par un anneau de métal, qui a environ 5 centimètres de diamètre. Chacun de vous, en se lavant les mains, peut produire une membrane analogue dans un anneau formé par le pouce et l’index. Ici la membrane est verticale ; en raison de sa pesanteur, l’eau qu’elle contient s’écoule graduellement vers le bas, la partie supérieure de la membrane devenant de plus en plus mince. Cette diminution graduelle de l’épaisseur se manifeste dans le changement des teintes brillantes renvoyées sur l’écran par les différentes parties de la membrane. Les lois de l’optique nous permettent d’ailleurs de calculer très exactement l’épaisseur de la région qui renvoie une couleur déterminée. Par exemple, cette bande pourpre horizontale est l’image d’une région de la lame où l’épaisseur est seulement d’un quart de micron. Vous la voyez monter lentement sur l’image ; cela prouve que la région dont l’épaisseur est d’un quart de micron descend dans la membrane, toutes les régions plus élevées ayant une épaisseur plus faible. La partie supérieure de la membrane nous renvoie maintenant une lumière d’un blanc jaunâtre ; son épaisseur, calculée avec certitude d’après ces lois d’optique auxquelles je ne puis que faire allusion, est peu supérieure à un dixième de micron. Voici enfin la tache noire qui se forme et qui envahit graduellement l’image où elle sépare nettement les parties brillantes et l’image du bord supérieur de l’anneau. La membrane vient à présent de crever, mais la tache noire s’était étendue jusqu’au quart de la hauteur de l’anneau. Si d’ailleurs j’avais pris des précautions suffisantes contre l’évaporation de l’eau de la membrane, évaporation insuffisamment évitée par la cage de verre qui protégeait la membrane contre les courants d’air, j’aurais pu conserver cette tache noire beaucoup plus longtemps, plusieurs jours par exemple : elle correspond à un état d’équilibre stable, en ce sens que le poids de l’eau ne suffit plus à provoquer son écoulement, ce qui arrête l’amincissement spontané de la partie supérieure de la membrane.
On tire de cette expérience des conséquences importantes au point de vue de la variation de la tension superficielle en fonction de l’épaisseur. Mais, à notre point de vue actuel, ce qui nous intéresse, c’est l’épaisseur de l’eau qui produit cette tache noire. D’après de récentes expériences, cette épaisseur est fort peu supérieure à un centième de micron. Les taches noires de seconde espèce, signalées par Newton, sont encore plus minces, et nous amènent jusqu’au deux-centième de micron, san ! que l’on observe encore dans la matière trace d’aucune discontinuité ( [1]).
On peut aller encore plus loin : peut-être avez-vous observé que de très petits morceaux de camphre, projetés à la surface de l’eau, se mettent à tournoyer et à se mouvoir en tous sens. Je ne veux pas rechercher ici la cause de ces mouvements ; j’ai seulement besoin d’ajouter qu’une trace d’huile, déposée à la surface de l’eau, suffit pour arrêter les mouvements, qui ne se produisent que dans de l’eau très propre, Lord Rayleigh ( [2]) a eu la curiosité de rechercher quelle épaisseur d’huile suffisait pour empêcher les mouvements du camphre. Il employait pour cela un grand bassin contenant l’eau sur laquelle on observait les mouvements ; il put alors s’assurer que, pour arrêter les mouvements en tous les points de la surface, il suffisait de déposer sur l’eau une goutte d’huile de poids si faible qu’une fois étendue à la surface de l’eau, elle ne pouvait avoir une épaisseur supérieure à deux millièmes de micron. C’est, à ma connaissance, le cas où la division de la matière a été poussée le plus loin. Cependant, même alors, aucun indice ne montre qu’on approche d’une limite infranchissable ( [3]), et la matière se manifeste encore comme continue et divisible. On a bien essayé de tirer de telles expériences, et particulièrement de l’existence des taches noires des bulles de savon, une démonstration de la structure discontinue de la matière. Malgré l’autorité de ceux qui énoncèrent ces raisonnements ( [4]), je suis obligé d’avouer qu’ils me paraissent purement vides de sens.
Ainsi on peut aller très loin sans apercevoir de limite à la divisibilité de la matière. Mais enfin, si l’on allait plus loin, toujours plus loin ? Arriverait-on à quelque chose d’hétérogène, de discontinu ? Ou la matière continuerait-elle, toujours, à se montrer continue et divisible ?
Là est le problème, et le point précis qui sépare les partisans du plein et du vide.
L’hypothèse de la continuité indéfinie ne peut se formuler de différentes manières. Au contraire, il y aurait évidemment pour la matière une infinité de façons d’être discontinue, granuleuse. Par exemple, on pourrait aboutir à une sorte de feutrage dont une feuille de papier, vue à la loupe, donnerait une idée grossière.
Hypothèse des molécules. - L’hypothèse choisie d’un commun accord, comme étant la plus simple, consiste à admettre que tout corps pur, l’eau par exemple, est en réalité formé par un nombre extrêmement grand de particules matérielles distinctes, absolument identiques les unes aux autres, qui définissent le terme extrême de la divisibilité possible pour l’eau. Ce sont les molécules du corps.
Entendons-nous bien sur ce qu’on veut dire en donnant la molécule comme terme de la division possible pour le corps. Une comparaison nous suffira. Supposons qu’on aperçoive dans la campagne une tache blanche, éloignée, pouvant se diviser sous des influences quelconques en taches d’aspect semblable, mais plus petites. On fera une hypothèse moléculaire en supposant que cette tache est en réalité un troupeau de moutons. Le mouton est ainsi le terme extrême jusqu’auquel on peut pousser la division du troupeau. Je ne crois pas bien utile d’ajouter que, cela ne veut pas dire qu’un mouton n’est pas divisible en parties plus petites, mais seulement que, pour le diviser, il faudra s’y prendre autrement que pour subdiviser le troupeau et que les phénomènes observés deviendront tout différents.
Ceci entendu, comment pourra-t-on démontrer qu’un corps pur est une agglomération de particules distinctes, identiques, et résistant à la division, au sens qui vient d’être précisé ?
Une vérification directe, on l’a vu, n’est pas actuellement possible ; reste, suivant l’usage constant dans les sciences inductives, à rechercher si, parmi les conséquences de cette hypothèse, il en est d’accessibles à une vérification expérimentale. Si de telles conséquences sont nombreuses, et si on n’a su les déduire d’aucune autre hypothèse, nous n’aurons peut-être pas le droit de dire que l’hypothèse moléculaire est vraie, mais nous saurons tout au moins qu’elle est utile.
Théorie cinétique des gaz. - Notons tout d’abord, sans nous y arrêter, qu’on n’a su expliquer les propriétés remarquables des cristaux que par le moyen d’hypothèses qui toutes supposent la matière distribuée périodiquement dans le cristal, suivant un empilement régulier de molécules identiques, De même, toutes les théories proposées pour expliquer pourquoi des rayons lumineux de couleurs différentes se propagent avec des vitesses différentes dans un même corps transparent, font appel à l’existence de molécules. Mais, par aucun de ces deux moyens, on n’a su arriver à fixer l’ordre de grandeur des molécules, et je n’en parlerai pas plus longtemps.
Au contraire, je crois utile de rappeler avec quelque détaille la théorie cinétique de la matière, telle qu’elle a été développée pour les gaz par Clausius et Maxwell, et pour les liquides par Van der Waals.
Parlons d’abord des gaz.
Vous savez tous ce que c’est qu’un gaz : l’air nous en donne un exemple. Un gaz, indéfiniment extensible, exerce toujours, par là même, une pression sur les parois de l’enceinte qui le contient ; si, par exemple, l’enceinte est formée d’un corps de pompe fermé par un piston mobile, il faudra un certain effort pour maintenir le piston en place ; cet effort mesurera la pression du gaz ; à température fixée, cette pression est d’ailleurs sensiblement proportionnelle à la densité absolue du gaz, en sorte que la pression exercée sur chaque centimètre carré de l’enceinte devient double si l’on double la masse de gaz contenue dans chaque centimètre cube (loi de Mariotte).
Voici maintenant comment on a précisé, dans le cas des gaz, l’hypothèse de la subdivision en molécules :
On suppose que les molécules qui forment un gaz sont en mouvement incessant, et ont des vitesses très grandes. On suppose de plus qu’elles sont, en moyenne, très éloignées les unes des autres, en sorte que le volume occupé par un gaz soit, par exemple, mille fois supérieur au volume qu’occuperaient ces molécules en repos et empilées les unes sur les autres ; on suppose que chaque molécule se meut librement et par conséquent en ligne droite, sans subir d’action sensible de la part des autres molécules, excepté lorsque, dans sa course, elle arrive très près d’une de ces molécules : alors il y a un choc, et les deux molécules, rebondissant l’une sur l’autre, repartent dans de nouvelles directions. On suppose enfin que les molécules sont parfaitement élastiques et que, tant que la température est maintenue constante, elles ne perdent pas d’énergie dans leurs chocs innombrables, soit entre elles, soit avec les parois de l’enceinte, conservant ainsi la même vitesse moyenne, fixée en même temps que la température, et ne dépendant en rien de la densité du gaz ; c’est-à-dire de l’écartement des molécules.
Nous aurons une représentation, médiocre, de cette hypothèse, en imaginant un grand billard sur lequel rouleraient en tous sens un grand nombre de billes. Seulement, et c’est pour cela que ce modèle est médiocre, les billes et les bandes du billard ne sont pas parfaitement élastiques, en sorte que les mouvements s’arrêteraient bientôt. Nous pouvons cependant apercevoir sur ce modèle un résultat intéressant. Les billes s’entre-choquent les unes les autres, mais elles heurtent aussi les bandes du billard ; supposons que l’on ait retiré les vis qui maintiennent immobile un des côtés du cadre, une des bandes ; cette bande sera repoussée par les billes qui la heurtent ; pour la maintenir au repos, il faudra exercer un certain effort : nous comprenons dès lors pourquoi, pour maintenir au repos un piston découpé dans la paroi de l’enceinte qui renferme un gaz, il faut exercer un effort : cet effort est nécessaire pour contre-balancer les chocs des molécules contre le piston.
Ainsi la pression qu’un gaz exerce sur chaque centimètre carré de l’enceinte qui le contient est due aux chocs des molécules sur cette portion de paroi. On voit immédiatement qu’elle doit doubler quand le nombre de ces chocs par seconde devient double ; on se rend compte que ce nombre de chocs doublera si on double le nombre de molécules contenues dans chaque centimètre cube, c’est-à-dire la densité du gaz : la loi de Mariotte est retrouvée, comme conséquence des hypothèses cinétiques.
Lorsqu’on effectue en toute rigueur le raisonnement qui relie la pression au nombre des chocs, on est d’ailleurs payé de sa peine en voyant que ce raisonnement même permet de calculer la vitesse moyenne des molécules, à la température considérée. Je me bornerai ici à vous donner le résultat de ce calcul. Les molécules de l’hydrogène, qui sont celles qui vont le plus vite, ont à 0° une vitesse d’environ 1 840 mètres par seconde ; les molécules de l’oxygène et de l’azote, qui composent l’air, ont une vitesse beaucoup plus petite, mais qui est encore, pour chacun de ces deux gaz, de l’ordre de ½ kilomètre par seconde. Ainsi les molécules qui forment l’air que nous respirons ne vont guère moins vite qu’un boulet de canon. Leur libre parcours entre deux chocs successifs reste d’ailleurs extrêmement petit, en sorte qu’une molécule donnée, sans cesse rejetée dans tous les sens, met toujours un temps considérable à s’écarter notablement de sa position initiale.
La moyenne des longueurs que parcourt ainsi en ligne droite, une molécule entre deux chocs successifs est ce qu’on nomme le libre parcours moyen. Cette longueur moyenne L joue un rôle important dans la théorie cinétique des gaz. Je vais essayer de vous montrer comment on a pu arriver à la calculer. Mais, pour cela, je devrai faire appel à une notion qui sera nouvelle pour beaucoup d’entre vous, bien qu’elle corresponde à des expériences simples.
Frottement intérieur. - Vous savez tous que, lorsqu’un solide glisse sur un autre, lorsqu’un livre glisse sur une table, par exemple, la vitesse du solide en mouvement décroît graduellement et devient nulle, à moins qu’on n’entretienne artificiellement le mouvement : on dit que les deux solides ont frotté l’un contre l’autre.
De même, quand un fluide est partagé en couches parallèles, glissant les unes sur les autres avec des vitesses différentes, ces couches frottent les unes sur les autres et leurs vitesses s’égalisent bientôt, par ce frottement intérieur, si le fluide est abandonné à lui-même.
Un exemple précis fera mieux comprendre la nature de ce frottement. Imaginons un disque horizontal H supporté en son centre par une tige verticale T (l’axe d’une petite dynamo) qui fait tourner ce disque d’un mouvement uniforme.
Au-dessus du disque H, se trouve un second disque horizontal H’, suspendu en son centre par un fil métallique F. Les deux disques sont supposés placés dans une enceinte E où l’on peut à volonté faire varier la pression et la nature du gaz.
L’appareil étant supposé parfaitement exécuté, si le gaz pouvait glisser sans frottement à la surface du disque H, et si de même il n’y avait pas de frottement interne, le gaz de l’enceinte resterait au repos. En fait, il n’en sera pas ainsi : le disque H, si poli qu’on le suppose, entraîne dans son mouvement les couches adjacentes qui elles-mêmes entraînent les couches supérieures, et ainsi de suite, jusqu’à ce que le frottement se transmette au disque supérieur et le fasse tourner, dans le sens du premier disque. Cette rotation s’arrêtera lorsque l’action constante exercée ainsi sur le disque supérieur sera équilibrée par la torsion du fil F. L’angle de torsion, supposé alors mesuré de n’importe quelle manière, nous renseignera sur la façon dont le frottement s’exerce à l’intérieur du gaz ; par exemple, pour une même vitesse du disque inférieur, l’angle de torsion sera plus grand dans l’oxygène que dans l’hydrogène. On dit que le frottement intérieur de l’oxygène est plus grand que celui de l’hydrogène ou encore que la viscosité de l’oxygène est plus grande.
La théorie cinétique explique très facilement cette viscosité.
Considérons dans le gaz deux couches horizontales voisines et de vitesses différentes : cela veut dire que, en moyenne, les molécules de la couche inférieure ont un excès de vitesse, dans une certaine direction horizontale, sur les molécules de la couche supérieure. Mais ces molécules se meuvent dans tous les sens, par suite certaines molécules de la couche inférieure seront projetées dans la couche supérieure et y apporteront leur excès de vitesse, qui se répartira bientôt par des chocs entre les molécules de cette couche supérieure dont la vitesse dans le sens indiqué sera ainsi un peu augmentée. De même, sous l’action des projectiles venus de la couche supérieure, la vitesse de la couche inférieure diminuera. L’égalisation des vitesses tendra donc à se produire, à moins qu’une cause extérieure ne maintienne artificiellement leur différence constante.
Vous pourrez imaginer un modèle assez bon de l’action qui s’exerce entre deux couches de gaz contiguës, en vous rappelant le trottoir roulant de l’Exposition. Ce trottoir se composait en réalité de deux trottoirs contigus, le trottoir extérieur ayant une vitesse double de celle du trottoir intérieur. Si maintenant nous supposons qu’on ait pu apporter dans la construction une perfection telle que le trottoir intérieur n’ait pas du tout frotté sur ses supports, nous verrons facilement qu’il aurait suffit pour réaliser cette vitesse intermédiaire, de maintenir constante la vitesse du trottoir extérieur, sans s’occuper d’entretenir celle du trottoir intérieur. Le va-et-vient des promeneurs, que j’assimile ici aux molécules d’un gaz, aurait suffi à lui imprimer la vitesse intermédiaire voulue. Vous vous souvenez, en effet, que, lorsque vous passiez du trottoir extérieur sur l’autre, vous ressentiez un choc bien net pendant ce choc, vous communiquiez à ce trottoir une partie de la vitesse acquise ; mais dans le même temps, un promeneur venant du sol fixe ressentait un choc inverse, annulant l’effet du premier. Ainsi ce trottoir ne pouvait ni rester en repos, ni atteindre la vitesse de l’autre : il y avait frottement continuel, produit par les promeneurs.
Mais la théorie cinétique ne se borne pas à nous faire concevoir, en gros, la cause du frottement intérieur, de la viscosité. Elle permet de calculer avec rigueur comment ce frottement dépend de la Vitesse moyenne des molécules et de leur libre parcours moyen L . Or je vous ai déjà dit qu’on savait calculer la vitesse moyenne des molécules d’un gaz à une température donnée ; on saura donc, réciproquement, déduire la grandeur L de la mesure du frottement intérieur.
Je ne puis pas entrer ici dans les détails de ce calcul, et je vous dirai seulement, à titre d’indication, que, à la température et sous la pression ordinaires, le libre parcours moyen est de l’ordre du dixième de micron, c’est-à-dire à peine inférieur aux plus petites grandeurs appréciables par le microscope.
Mais je dois à cette occasion signaler un résultat remarquable, directement vérifiable par l’expérience, et que le physicien anglais Maxwell découvrit, en effectuant les calculs auxquels je viens de faire allusion. Il trouva qu’à température constante, le frottement intérieur doit être indépendant du rapprochement des molécules, c’est-à-dire de la pression. En d’autres termes, dans l’expérience représentée par la figure 16, la torsion imprimée au disque supérieur, sous l’action du disque inférieur, ne doit pas dépendre de la pression du gaz qui transmet cette action.
C’est là une conséquence inattendue de la théorie : on eût certainement pensé que l’action du gaz devait grandir en même temps que sa densité.
On se hâta donc de faire l’expérience, et l’on put s’assurer ainsi que les prévisions de Maxwell se vérifiaient parfaitement. Voilà donc une découverte suggérée par les hypothèses précédentes : c’est à de telles marques qu’on reconnaît une bonne théorie.
Grandeur et nombre des molécules. - Une fois que l’on connaît le libre parcours moyen L, il devient facile de calculer le diamètre D de la molécule, ainsi que le nombre N de molécules qui sont contenues, à une température et sous une pression fixées, dans un litre du gaz considéré. Montrons que l’on peut trouver deux équations qui déterminent ces deux nouvelles inconnues.
Tout d’abord il est évident que si la pression décroît, c’est-à-dire si le nombre N devient plus petit, le libre parcours moyen doit grandir. De même, ce libre parcours doit dépendre du diamètre D ; car, les autres conditions restant les mêmes, deux molécules qui passent à côté l’une de l’autre ont d’autant plus de chances de se heurter qu’elles sont plus grosses, En précisant ce raisonnement un peu vague, on obtient une équation où figurent N, D et L ; c’est-à-dire, puisque L est déjà connu, une équation où figurent-seulement les inconnues N et D.
Supposons maintenant que, par exemple en abaissant sa température, on solidifie le gaz d’abord contenu dans un litre ; il occupe alors un volume v que l’on peut mesurer et où sont contenues les N molécules primitives. En raison de l’incompressibilité presque absolue des solides, il est naturel d’admettre que ces N molécules sont collées les unes contre les autres dans le volume v. Le volume v ne peut donc différer beaucoup de la somme des volumes vrais des N molécules, c’est-à-dire de N sphères de diamètre D : cela fait une seconde équation entre N et D. Malheureusement cette seconde équation n’est qu’approximative.
Nous pouvons donc, au moins d’une manière approchée, calculer le diamètre des molécules et leur nombre.
On trouve ainsi que les diamètres des différentes molécules doivent être compris entre un millième et un dix-millième de micron [entre 10-7 et 10-8cm]. Si l’on se rappelle que, lorsque le diamètre d’une sphère est multiplié par 10, son volume est multiplié par 1000, on comprendra sans peine que les diamètres des molécules appartenant aux gaz les plus différents puissent être compris dans cet intervalle restreint. En gros, ces diamètres sont au millimètre comme le millimètre est au kilomètre. Les minces couches d’huile étudiées par lord Rayleigh pouvaient donc contenir, dans leur hauteur, entre 2 et 20 molécules.
Quant au nombre N des molécules contenues par litre dans un gaz, dans les conditions ordinaires de température et de pression, il est, comme on devait s’y attendre, extraordinairement grand. On trouve qu’il doit être égal à 55 milliards de trillions (5,5.1022), nombre qui, en raison même de son énormité, ne dit plus rien à l’imagination. A l’intérieur d’un tube de Crookes, sous une pression d’un millionième d’atmosphère, chaque millimètre cube contient encore environ 50 milliards de molécules.
Les atomes. - En vous disant combien il y a de molécules dans un litre de gaz, je n’ai pas spécifié la nature de ce gaz. Ce n’était pas là une omission. On peut en effet démontrer, et, pour abréger, nous admettrons, comme une conséquence des hypothèses qui précèdent, que deux volumes égaux de gaz quelconques, pris à la même température et sous la même pression, contiennent un même nombre de molécules. Par exemple, à 0° et sous la pression de 76 centimètres de mercure, un litre d’hydrogène, un litre de chlore, et un litre d’acide chlorhydrique gazeux, contiennent chacun un même nombre N de molécules.
Dès lors, en nous aidant de considérations d’ordre chimique, nous pouvons arriver à concevoir et à définir les atomes.
A la même température et sous la même pression (par exemple à 0° et 76 centimètres) un litre d’hydrogène et un litre de chlore contiennent chacun N molécules ; mélangeons ces deux gaz, puis éclairons le mélange par de la lumière diffuse, ce qui est un moyen pour les faire réagir l’un sur l’autre : ils combinent et donnent de l’acide chlorhydrique. Quand la réaction est terminée, on constate que la pression et la température ayant repris les valeurs initiales on a obtenu deux litres, et par suite 2N molécules ; d’acide chlorhydrique.
Toutes ces molécules sont identiques ; toutes contiennent donc la même quantité d’hydrogène. Or on avait d’abord N molécules d’hydrogène, maintenant répartis entre 2 N molécules d’acide ; il faut bien admettre que chacune s’est coupée en deux moitiés, en deux morceaux identiques. Le même raisonnement montre que chaque molécule d’acide chlorhydrique contient la moitié de la molécule de chlore.
On peut répéter un raisonnement analogue pour toute combinaison chimique renfermant de l’hydrogène. Or, malgré le nombre immense de ces combinaisons, on n’est jamais arrivé à réaliser un corps dont la molécule contienne une quantité d’hydrogène inférieure à la moitié de la molécule d’hydrogène pur ; on n’est pas arrivé davantage à réaliser un corps dont la molécule contienne les 2/3 ou les 7/5 de la molécule d’hydrogène. Ce qu’on obtient invariablement, ce sont des corps qui contiennent exactement une fois, deux fois, trois fois … la moitié de la molécule d’hydrogène. Cette petite masse d’hydrogène, apparaît ainsi comme absolument indivisible par les forces chimiques ; elle peut s’ajouter à elle-même ; mais jamais se briser en fragments plus petits ; c’est elle que l’on appelle atome d’hydrogène.
La molécule d’acide chlorhydrique contient donc un atome d’hydrogène, la molécule d’hydrogène en contient deux, la molécule de gaz ammoniac en contient trois ; etc. Plus généralement, toute molécule apparaît maintenant comme un édifice formé par l’assemblage d’atomes assez étroitement unis pour ne pas se séparer lorsque deux molécules se heurtent ( [5]). Il y a, naturellement, autant d’espèces d’atomes qu’il y a de corps simples, c’est-à-dire, dans l’état actuel de nos connaissances, environ une centaine. Le nombre possible des corps composés, c’est-à-dire des espèces de molécules que peuvent former ces atomes, échappe à toute énumération.
Tels sont les principaux résultats des théories moléculaires, appliquées aux gaz.
Supposons maintenant que l’on comprime un gaz quelconque, en abaissant au besoin sa température, jusqu’à ce qu’on provoque la liquéfaction. La manière même dont on a obtenu ce liquide amène à le considérer comme formé par une agglomération des molécules qui constituaient le gaz, sans que ces molécules aient subi aucun changement. Elles continuent donc à se mouvoir dans tous les sens en se heurtant les unes les autres. Seulement elles se sont trop rapprochées pour pouvoir, pendant les parcours entre deux chocs, être considérées comme libres : il faudra, en particulier, tenir compte des attractions entre molécules voisines par lesquelles on explique la cohésion. Le Hollandais Van der Waals, qui développa cette nouvelle théorie cinétique applicable aux liquides ou aux gaz fortement comprimés, eut la gloire de prouver que tous les fluides obéissent, quelle que soit leur nature chimique, à une même loi de compressibilité. Suivant cette admirable loi les états correspondants, à laquelle je dois faire seulement allusion, tous les corps apparaissent comme bâtis sur le même modèle, et la connaissance approfondie de l’un d’entre eux permet de calculer certaines propriétés de tous les autres.
C’est là une des lois les plus importantes et les plus générales que l’on ait découvertes ; sa vérification est dès à présent certaine : c’est là un triomphe éclatant pour les hypothèses moléculaires, qui, seules, ont conduit à ce résultat.
Les solutions. - Les ions
Tout ce qui précède s’appliquait aux corps purs, qui contiennent une seule espèce de molécules. Étudions maintenant les solutions, dont l’eau sucrée vous donne un excellent exemple.
Quand une solution est « étendue », comme il arrivera si on dissout 1 gramme de sucre dans 100 grammes d’eau, la matière dissoute se trouve diluée à peu près comme le sont les gaz ordinaires : ses molécules sont aussi écartées que dans les gaz. On peut dès lors s’attendre à retrouver des lois simples ; c’est en effet ce qui arrive. Pour le moment il me suffira de citer une de ces lois, relative à la température de congélation.
De l’eau pure se congèle à 0° ; mais toute dissolution dans l’eau donne un liquide qui se congèle au-dessous de 0° : il y a abaissement nécessaire dans la température de congélation. Vous savez déjà cela ; vous savez que pour faire fondre la neige dans les rues, alors que la température est au-dessous de 0°, on verse du sel de cuisine sur cette neige et qu’on obtient ainsi de l’eau salée bien liquide sans pourtant qu’il ait cessé de geler.
Une loi très simple, découverte par le chimiste français Raoult, régit ces abaissements de la température de congélation et se résume en disant que l’abaissement dépend du nombre de molécules dissoutes, mais pas du tout de leur nature. Précisons par un exemple : imaginons deux volumes égaux, emplis, sous la même pression et à la même température, l’un de vapeur d’éther, l’autre de vapeur d’alcool ; les vapeurs ayant sensiblement les propriétés des gaz, ces deux volumes contiennent le même nombre N de molécules. Dissolvons maintenant ces deux masses gazeuses dans deux masses égales d’eau : nous aurons une solution d’alcool et une solution d’éther qui, dans le même volume, contiendront le même nombre N de molécules dissoutes. Ces deux solutions se congèlent à la même température : voilà la loi. Cette loi se vérifie très bien, pour un très grand nombre de corps dissous et avec les dissolvants les plus variés.
Toutefois, certains corps font très nettement exception à la loi de Raoult. C’est le cas pour tous les sels en dissolution dans l’eau. Un exemple frappant vous en sera donné par le sel marin, ou chlorure de sodium, en solution dans l’eau. Étudions cet exemple avec détail. Le sel marin contient du chlore et du sodium ; sa molécule contient donc au moins un atome de chlore et un atome de sodium. Une solution étendue de sel marin, qui contient N atomes de chlore contient donc au plus N molécules de sel marin. Pourtant cette solution se congèle à la même température qu’une solution de même volume contenant 2N molécules d’éther, comme si elle contenait elle-même 2N molécules.
Le Danois Arrhenius eut la gloire d’expliquer cette anomalie ; il eut la hardiesse de soutenir que, même alors, la loi de Raoult s’appliquait et que notre solution étendue de chlorure de sodium renferme effectivement 2N molécules. Mais nous avons démontré qu’elle ne pouvait contenir que N molécules de chlorure de sodium : eh bien ! cela signifie que chacune de ces N molécules s’est dissociée, brisée en deux morceaux, en atomes de chlore et de sodium, qui se meuvent librement, comme des molécules indépendantes dans la solution, qui ne contient en réalité pas ou presque pas de chlorure de sodium, proprement dit, non dissocié.
Peut-être y a-t-il parmi vous certains étudiants qui, sachant déjà beaucoup de chimie, n’ont pas encore entendu parler de cette hypothèse. Alors je ne doute pas qu’ils ne ressentent un peu de cette indignation méprisante qu’éprouvèrent la majorité des chimistes quand Arrhenius exposa ses idées. Admettre que du sodium peut exister, non combiné, dans l’eau ! Quelle hérésie ! Ne sait-on pas que le sodium libre décompose l’eau avec violence en donnant de la soude et libérant de l’hydrogène ? De même on ne retrouve dans l’eau salée aucune des propriétés d’une solution de chlore. Et d’ailleurs, si du chlore et du sodium existaient librement dans l’eau salée, on aurait bien quelque moyen physique d’effectuer leur séparation, par exemple par évaporation ou par diffusion dans de l’eau pure. Or tous ces moyens échouent, et ce qu’on retire de l’eau salée, c’est toujours précisément ce sel marin que les novateurs prétendent dissocié en ses éléments.
Arrhenius n’eut pourtant pas beaucoup de peine à réfuter les objections des chimistes conservateurs. Il eut pour cela recours aux propriétés électriques des dissolutions.
Essayons de faire passer le courant électrique dans une solution d’alcool ou d’éther : rien ne passe ; ces solutions sont isolantes. Essayons, au contraire, de faire passer le courant dans une de ces solutions qui étaient considérées comme faisant exception à la loi de Raoult : le courant passe très bien ; ces solutions sont conductrices. Par exemple, une solution de sel marin laisse facilement passer le courant. Étudions la, à ce nouveau point de vue.
Imaginons cette solution partagée entre 2 récipients A, B (fig. 17), réunis par un tube que peut fermer un robinet. Dans le vase A plonge l’électrode positive, dans le vase B l’électrode négative. Faisons passer le courant : aussitôt divers phénomènes se produiront auprès des électrodes ; tout ce que je suppose à cet égard, c’est qu’on s’arrange pour ne pas laisser échapper de matière à la faveur de ces phénomènes. Après un certain temps, fermons le robinet R, ce qui arrête le courant, et faisons l’analyse de la matière contenue dans les vases A et B. On trouve que le vase B s’est enrichi en sodium, en quantité exactement proportionnelle à la quantité d’électricité qui a passé. Au contraire, le vase B s’est appauvri en chlore. Comme il ne s’est pas perdu de matière, nécessairement le vase A a dû perdre le sodium gagné par B, et gagner le chlore perdu par B. C’est ce que l’expérience vérifie.
Il résulte nécessairement de là que, pendant le passage du courant, le sodium du chlorure de sodium se meut dans le sens du courant, de A vers B, en même temps que le chlore se meut en sens inverse, et qu’il ne peut y avoir passage du courant sans ce double mouvement matériel.
Cela ne peut guère s’expliquer qu’en admettant que les atomes de sodium sont chargés d’électricité positive, et les atomes de chlore d’électricité négative, en sorte que leur mouvement sous l’action des forces électriques crée nécessairement un courant électrique. Cela précise l’hypothèse de la dissociation du sel marin en chlore et en sodium : nous admettrons, sans chercher à l’expliquer, que les atomes de sodium et de chlore qui proviennent de la dislocation d’une molécule de sel marin sont chargés d’électricités contraires.
Ces atomes chargés sont les ions. On est conduit de même à admettre que, pour toute solution conductrice, les molécules dissoutes se disloquent en morceaux, chargés électriquement, qui sont des ions ( [6]). Voilà une nouvelle hypothèse moléculaire.
Les charges ainsi portées par les ions sont d’ailleurs extrêmement grandes. L’étude de la conductibilité électrique montre que, par exemple, 1 gramme d’ions hydrogène portent 100 000 coulombs d’électricité positive. Je vous ferai mieux comprendre l’énormité de cette charge en vous disant que, si l’on pouvait réaliser deux sphères contenant chacune seulement un milligramme d’ions hydrogène, et si on les mettait à 1 centimètre de distance, elles se repousseraient avec la force prodigieuse de 100 trillions de tonnes. Chacune des parties de l’une des deux charges repousserait d’ailleurs les autres parties de la même charge, avec une force telle que nous ne pouvons imaginer aucune enceinte assez rigide pour résister à l’action de cet explosif électrique.
Voilà qui nous suffit pour comprendre qu’on ne puisse pas séparer l’un de l’autre par voie physique les atomes, les ions de sodium et de chlore, qui se meuvent dans l’eau salée. Tant qu’ils sont en présence, leurs actions électriques se neutralisent deux à deux, mais nous ne disposons pas de forces électriques suffisantes pour isoler une quantité appréciable de l’un d’eux.
De même nous pouvons maintenant comprendre comment les ions de sodium de l’eau salée ne décomposent pas l’eau. Du fait même qu’ils possèdent les charges électriques énormes, la façon dont ils attirent ou repoussent les molécules de l’eau ne doit pas être la même que celle des atomes ordinaires de sodium qui, eux, ne sont pas chargés. Ainsi toutes les objections sont levées.
Atomes d’électricité. - Enfin si l’on compare les charges électriques transportées par les différents ions, on arrive à ce résultat important que ces charges sont toutes des multiples entiers de la charge portée par l’ion hydrogène. Cette charge qui se trouve ainsi contenue un nombre entier de fois dans toute charge électrique transportable par un courant est, à cet égard, un véritable atome d’électricité. Sa valeur absolue est d’environ 10-20 coulombs. Cette valeur n’est déterminée qu’assez grossièrement. Au contraire, on a su mesurer avec beaucoup de précision le rapport e/m de la charge, exprimée en coulombs, à la masse m de l’ion qui la transporte ex primée en grammes. La plus grande valeur de ce rapport e/m , réalisée pour l’ion hydrogène, est égale à 100 000.
Division de l’atome en corpuscules
Tel était, il y a quatre ou cinq ans, l’état des hypothèses et des théories moléculaires. Depuis, sous l’influence des remarquables découvertes relatives aux rayons cathodiques et aux rayons X, découvertes qui semblent sur le point de renouveler l’édifice entier de la physique, un progrès considérable a été fait.
Beaucoup d’entre vous connaissent déjà un peu les rayons cathodiques ; rappelons seulement leurs propriétés essentielles.
Si, dans une ampoule en verre où pénètrent deux électrodes métalliques, on fait un très bon vide, de l’ordre du millionième d’atmosphère (ce qui laisse encore 50 milliards de molécules par millimètre cube) et si on fait passer la décharge électrique entre les électrodes réunies aux pôles d’une bobine de Ruhmkorff, on observe que cette décharge diffère extrêmement de l’étincelle blanche et brillante qu’on observe sous la pression ordinaire. Certaines régions de la paroi sont illuminées de vives lueurs vertes, que vous voyez en ce moment. Un grand nombre de substances, une fois placées à l’intérieur de l’ampoule, s’illuminent de même en prenant une couleur variable suivant leur nature, couleur qui, par exemple, est bleue pour le cristal, jaune pour l’yttria, rouge pour le rubis.
Si l’on place un objet quelconque entre l’électrode chargée négativement, qu’on appelle cathode, et une des régions fluorescentes, une silhouette de l’objet se dessine sur le fond clair de la fluorescence. Ici, vous voyez se projeter sur la fluorescence verte de l’ampoule l’ombre d’une croix d’aluminium placée dans l’ampoule. Il y a donc des rayons qui émanent de la cathode : ce sont les rayons cathodiques, découverts en 1869 par l’Allemand Hittorf ( [7].).
J’approche du tube un aimant : aussitôt l’ombre de la croix se déplace ; le déplacement est de sens inverse quand j’échange la position des pôles en retournant l’aimant : les rayons cathodiques sont déviés par l’aimant.
Enfin, ils sont électrisés négativement ( [8].), comme on peut s’en assurer par exemple en faisant passer un pinceau de rayons cathodiques au voisinage d’un fil électrisé. Le pinceau est attiré si le fil est électrisé positivement, repoussé si le fil est électrisé négativement ( [9]).
Bref, les rayons cathodiques peuvent être assimilés à une pluie de projectiles électrisés négativement, chassés par la cathode, elle aussi, chargée négativement.
Chacun des projectiles a une masse m’, sa charge étant e’ ; il est intéressant de comparer ces valeurs aux valeurs e et m rencontrées dans l’électrolyse. Cette comparaison, avec les conséquences qu’elle a comportées, a été principalement l’œuvre du physicien anglais J. J. Thomson ( [10].). On conçoit que la déviation des rayons par l’aimant, ou leur déviation par les corps électrisés dépendra de e’, de m’ et aussi de la vitesse des rayons. Le calcul complet montre que chacun des deux phénomènes donne une relation entre la vitesse v et le rapport e’/m’ .Elles permettent donc de déterminer ces deux quantités.
La vitesse v est variable suivant les ampoules, le degré de vide, la nature de l’excitation électrique ; c’était presque évident a priori : une vitesse due à la répulsion entre les projectiles cathodiques et la cathode doit nécessairement dépendre de la force de cette répulsion. Mais le résultat frappant est dans la grandeur de cette vitesse qui peut atteindre et sans doute dépasser l’effroyable vitesse de 50000 kilomètres par seconde. L’énergie qui serait développée par l’arrêt subit d’un kilogramme de matière ayant cette vitesse suffirait à porter à l’ébullition l’eau d’un lac ayant 1000 hectares sur 5 mètres de profondeur.
Aussi les projectiles subissent-ils un choc effroyable contre les parois qui les arrêtent ; un des phénomènes les plus remarquables qui accompagnent le choc est la production de rayons X à partir des régions ainsi bombardées par les projectiles cathodiques.
Quant au rapport e’/m’, il se montre au contraire constant, indépendant de toutes les conditions qui peuvent modifier v. Seulement ce rapport constant est 1000 fois plus grand que le rapport e/m défini par l’électrolyse, pour l’ion hydrogène e’/m’ = 1000.e/m ; m désigne la masse de l’atome d’hydrogène, c’est-à-dire du plus léger de tous les atomes ; il peut donc sembler naturel de supposer que m’ est supérieur ou égal à m, et par suite que e’ est au moins 1000 fois plus grand que e. En fait, nous allons voir que l’expérience tranche la question dans un sens tout différent.
Pour être renseigné, puisque e’/m’ est maintenant connu, il suffit de mesurer l’un des deux termes du rapport : en fait on a pu mesurer la charge électrique e’ du projectile cathodique.
Cette mesure a porté, non sur les rayons cathodiques tels qu’on les obtient comme je viens de l’indiquer par la décharge électrique au travers de gaz très raréfiés, mais sur une autre espèce très curieuse de rayons cathodiques, obtenus sans utiliser la décharge électrique, par l’action de la lumière sur les métaux. Quand on éclaire par de la lumière violette et surtout par de la lumière ultra-violette, la surface de certains métaux, tels que le zinc ou l’aluminium on constate que cette surface émet des charges négatives. Les charges ainsi émises ont les propriétés des rayons cathodiques, affaiblies seulement par cette cause que leur vitesse est beaucoup moindre ( [11]). On peut, en particulier, répéter, pour ces rayons la mesure des quantités v et e’/m’. La vitesse v fut trouvée de l’ordre de 1000 kilomètres par seconde ; quant au rapport e’/m’ malgré la différence dans le mode de production des rayons, il fut trouvé avoir la même valeur que dans le cas des rayons cathodiques ordinaires. Seulement, cette fois, nous allons pouvoir mesurer la charge e’.
Pour cela au lieu d’opérer dans le vide comme dans les expériences qui précèdent, on opère à la pression atmosphérique, en utilisant une propriété nouvelle des rayons étudiés, propriété que je dois d’abord vous signaler.
Lorsque ces rayons se meuvent dans de l’air très humide, où cependant aucun brouillard ne s’est encore formé, ils provoquent la condensation de la vapeur d’eau en excès et déterminent la production d’un brouillard formé de petites gouttelettes d’eau. Un pareil brouillard se produit au reste non seulement avec des rayons cathodiques, mais aussi chaque fois que le gaz humide est le siège d’une décharger électrique d’origine quelconque. Je veux vous en montrer un exemple. Vous savez que les pointes fortement électrisées laissent jaillir dans l’air des aigrettes visibles dans l’obscurité, par le moyen desquelles l’électricité s’échappe de la pointe. Je vais faire jaillir une semblable aigrette au voisinage immédiat du jet de vapeur qui s’échappe par l’extrémité effilée du col d’un ballon plein d’eau bouillante. L’ombre du jet de vapeur et de l’ajutage dont il sort est projetée par un arc électrique sur ce mur blanc. Maintenant cette ombre est presque invisible, la condensation en gouttes d’eau étant presque nulle dans le jet de vapeur. Mais si je fais jaillir l’aigrette, vous voyez aussitôt cette ombre prendre l’aspect d’un panache d’épaisse fumée. Sous l’action des charges électriques contenues dans l’aigrette, de nombreuses gouttelettes d’eau se sont formées et ont fait un nuage donnant une ombre sur le mur.
On explique cette condensation en admettant que chaque centre chargé attire à lui les molécules d’eau voisines, comme un bâton de résine électrisée les corps légers environnants ; il se forme ainsi autour de chaque charge électrique un cortège de molécules d’eau qui servira de germe à la condensation de la vapeur si celle-ci est en excès dans l’air ( [12]). Le nombre des gouttes d’eau contenues dans le brouillard est donc égal, d’après cette explication, au nombre des charges électriques qui ont provoqué la condensation.
Revenons maintenant aux rayons cathodiques excités par la lumière. Nous supposerons qu’on donne à l’expérience la disposition représentée schématiquement par la figure 18.
Un pinceau de lumière XX traverse la toile métallique T et vient frapper la lame sensible A d’où jaillissent alors des rayons cathodiques. Les projectiles chargés qui forment ces rayons, heurtant les molécules de l’air humide qui emplit l’appareil, cesseraient bientôt de se mouvoir dans une direction déterminée : pour éviter cette diffusion et les forcer à cheminer dans le sens initial, vers la toile T, cette toile est réunie au pôle positif de la pile P, dont le pôle négatif est relié à la lame A. Le champ électrique alors créé entre A et T force les projectiles négatifs issus dé A à cheminer au travers de l’air et, malgré le frottement qu’ils y éprouvent ( [13]), jusqu’à la toile chargée positivement T. Il en résulte un courant d’intensité constante dans le fil de communication, courant qui sera mesuré par le galvanomètre G. Sans entrer dans le détail, vous concevez que la mesure exacte de ce courant permet de calculer quelle charge négative se trouve contenue, sous forme de projectiles cathodiques, dans un centimètre cube de l’espace compris entre les deux plans, A, T.
Une enceinte (non représentée sur la figure) contient ces deux lames ; l’air de l’enceinte est saturé de vapeur d’eau, mais non sursaturé : il reste limpide malgré l’existence de centres chargés. Mais si on le détend brusquement, ce qui a pour effet connu de le sursaturer, la condensation deviendra possible. En effet, on voit aussitôt se développer un brouillard entre les deux lames A, T. Les gouttes qui forment ce brouillard ont chacune pour centre un des projectiles négatifs qui se trouvaient entre les deux plaques au moment de la détente. On cesse alors d’éclairer A, on rompt les communications avec la pile P, et on observe avec quelle vitesse descend le nuage de gouttelettes ainsi constitué. Cette vitesse de chute, d’autant plus faible que les gouttes sont plus petites, permet de calculer exactement, par application d’une formule connue, le diamètre des gouttes d’eau, donc le poids moyen P de chaque goutte d’eau. On peut déterminer d’autre part (à la rigueur en pesant l’eau déposée à la fin de l’expérience) le poids total du brouillard formé ( [14]), donc le poids P des gouttes d’eau contenues à l’instant de la détente, dans chaque centimètre cube. Le quotient P/p donnera le nombre n de gouttes, et par suite de charges électriques, enfermées dans ce volume. Mais j ’ai montré que l’on connaît la charge électrique totale E contenue dans ce même volume ( [15]). On connait donc le quotient E/n’, c’est-à-dire la charge e’ d’un projectile isolé.
On trouve ainsi, contrairement à ce que nous avions tout à l’heure considéré comme probable, que e’ est sensiblement égal à e : la charge d’un projectile cathodique est égale à celle que transporte dans l’électrolyse un atome d’hydrogène.
Comme, d’autre part, e’/m’= 1000e/m , il faut, si e’ = e, que m=1 000 m’. Ainsi la masse m’ d’un projectile cathodique, masse que nous appellerons désormais CORPUSCULE, est seulement la millième partie de l’atome d’hydrogène ;
Nous avons donc réalisé la division de l’atome en parties plus petites, et même beaucoup plus petites.
Tel est le résultat capital dû à J.-J. Thomson.
Il est remarquable que l’existence de ces corpuscules, grâce aux fortes charges électriques qu’ils transportent, est démontrée de manière plus directe que celle des atomes ou des molécules, pourtant beaucoup plus gros. Dans l’expérience de condensation des gouttes d’eau, on peut dire que chaque corpuscule, pris individuellement, a été isolé et atteint. En ce sens, l’existence des corpuscules a plus de certitude que celle même des atomes, et l’on peut dire que l’hypothèse corpusculaire, la dernière venue parmi les hypothèses moléculaires, est la seule qui se soit trouvée accessible à une vérification directe.
Ainsi nous savons partager un atome en deux morceaux ; mais les deux morceaux ne sont pas de taille comparable et l’un d’eux, le corpuscule, est très petit par rapport à l’atome. De même, nous partageons une maison en deux quand nous en enlevons une pierre, ou un gros livre en deux quand nous en déchirons une page.
Le petit morceau, le corpuscule, est chargé négativement. Comme l’expérience montre d’ailleurs qu’il apparaît toujours autant d’électricité positive que d’électricité négative, nous sommes forcés de dire que le plus gros des deux morceaux qui proviennent de la rupture d’un atome est chargé positivement. Il a été facile de mettre hors de doute l’existence de ces gros fragments d’atomes, chargés positivement, de mesurer leur charge électrique, égale et de signe contraire à e, et de mesurer leur masse, trouvée sensiblement égale à la masse de l’atome, à peine diminuée par le départ du corpuscule négatif ( [16]). Je me borne à faire allusion à ces recherches dont l’exposé nous entraînerait trop loin.
Mais ce qu’il est essentiel de remarquer, c’est que les corpuscules négatifs paraissent toujours identiques entre eux, quelle que soit la nature chimique de l’atome dont on les détache. Par exemple, un corpuscule provenant d’un atome d’aluminium est identique au corpuscule provenant d’un atome de fer. Par suite, la réunion de ce dernier au reste positif de l’atome d’aluminium redonnerait l’atome ordinaire d’aluminium électriquement neutre, et de même la réunion de l’ion positif fer avec un corpuscule provenant d’aluminium donnera l’atome ordinaire de fer.
Pour la première fois, nous entrevoyons un moyen de pénétrer dans la constitution intime de l’atome. On fera, par exemple, l’hypothèse suivante, qui concorde avec les faits précédents.
Chaque atome serait constitué, d’une part, par une ou plusieurs masses très fortement chargées d’électricité positive, sorte de soleils positifs dont la charge serait très supérieure à celle d’un corpuscule, et d’autre part, par une multitude de corpuscules, sorte de petites planètes négatives, l’ensemble de ces masses gravitant sous l’action des forces électriques, et la charge négative totale équivalant exactement à la charge positive totale, en sorte que l’atome soit électriquement neutre.
Les planètes négatives qui appartiennent à deux atomes différents sont identiques ; s’il arrivait que les soleils positifs fussent aussi identiques entre eux, la totalité de l’univers matériel serait formée par le groupement de deux espèces seulement d’éléments primordiaux, l’électricité positive et l’électricité négative.
Si une force électrique suffisante agit sur un atome elle pourra détacher une des petites planètes, un corpuscule (formation de rayons cathodiques). Mais il sera deux fois plus difficile d’arracher un deuxième corpuscule en raison de l’excès de la charge positive totale, non altérée, sur la charge négative restante. Il sera trois fois plus difficile d’arracher un troisième corpuscule, et lorsque nos moyens d’action seront épuisés, nous n’aurons encore presque rien arraché de l’atome dont l’insécabilité apparente se trouve ainsi expliquée. Quant à arracher un soleil positif, ce serait tout à fait hors de notre puissance actuelle.
L’atome apparaît ainsi comme un tout gigantesque, dont la mécanique intérieure aurait pour base les lois fondamentales des actions électriques. Les durées de gravitation des différentes masses intérieures à l’atome correspondraient peut-être aux différentes longueurs d’onde des lumières que manifestent les raies du spectre d’émission.
Un calcul simple donne une première indication dans ce sens. Les rayons cathodiques détachés de l’aluminium par la lumière ultra-violette ont, d’après Lenard, une vitesse d’environ 1000 kilomètres par seconde. Admettons que les corpuscules qui forment ces rayons avaient à peu près la même vitesse dans les atomes d’où la lumière les a détachés, et cherchons le temps que devait mettre un de ces corpuscules pour décrire avec cette vitesse la circonférence de l’atome d’aluminium ; c’est-à-dire d’après les dimensions de cet atome, environ 10-7 centimètres ; nous trouverons que la durée de cette gravitation (l’année de cette planète) est environ 10-15 secondes. Or les périodes de vibrations des raies de l’aluminium sont comprises entre 10-15 et ½.10-15 secondes. Il y a là une coïncidence remarquable, à ma connaissance non encore signalée ( [17]).
Si l’atome est très lourd, c’est-à-dire probablement très grand, le corpuscule le plus éloigné du centre, — le Neptune du système — , sera mal retenu dans sa course par l’attraction électrique du reste de l’atome ; la moindre cause l’en détachera ; la formation de rayons cathodiques pourra devenir tellement facile que la matière paraisse spontanément radioactive ; tels sont l’uranium, le thorium, qui précisément ont les plus grands des poids atomiques sûrement connus ; tels paraissent être les nouveaux métaux fortement radio-actifs récemment découverts en France par Mme et M. Curie (1898) et par M. Debierne 1899).
Nous pouvons enfin concevoir que, pour les masses qui forment l’atome, il y ait plusieurs configurations stables possibles, plusieurs régimes permanents de gravitation possibles. A ces différents régimes correspondraient les différents types chimiques possibles pour un même atome (azote trivalent et pentavalent, fer des sels ferreux et fer des sels ferriques, etc.). Ainsi les progrès accomplis font surgir de nouveaux problèmes : leur solution sera l’œuvre des années ou des siècles futurs. Je serais heureux si je vous avais donné l’impression que, somme toute, un pas considérable est déjà fait.