Nell’anno che, su proposta della Società Europea di Fisica, l’Unesco e l’Assemblea Generale delle Nazioni Unite hanno dedicato alla luce e alle tecnologie basate sulla luce, sembra utile riflettere sulla costituzione di questo fenomeno così vitale per la biosfera. Da una breve analisi del percorso storico che ha caratterizzato gli studi di ottica emerge l’aspetto curioso del duplice comportamento ondulatorio e corpuscolare della luce, un dualismo che trova spiegazione solo con l’avvento della meccanica quantistica e che rientra nell’ambito di una nuova interpretazione dei fenomeni naturali, in cui situazioni antagoniste e di reciproca esclusione sono però tra loro complementari.
1. Cenni storici
Non si può parlare propriamente di ottica nell’antichità come di una scienza che studia i fenomeni luminosi quali la natura dei colori e i modi di emissione e propagazione della luce. L’interesse principale era quello di rendere conto del fenomeno della visione, stabilendo una relazione tra l’occhio e la cosa vista. Significativa è la posizione di Aristotele (384 a.C.-322 a.C.) per il quale nel De Anima la luce non è una sostanza, ma la manifestazione del “diafano” (oggi diremmo “mezzo trasparente”) in presenza del fuoco o del sole. Quindi la luce è una modificazione di qualità, un accidente, e il suo colore dipende dal grado di diafanità: se il grado di diafanità è elevato, il colore tende al bianco, se è basso il colore tende al nero. Per Aristotele la visione si verifica per una modificazione prodotta dall’oggetto nel diafano.
Risale al III secolo a.C. con Euclide il primo tentativo di costruzione logica e unitaria della scienza della visione. Nell’Ottica Euclide utilizza un metodo ipotetico-deduttivo e si avvale degli strumenti matematici esposti nei suoi più famosi Elementi per sviluppare una teoria della percezione in cui giocano un ruolo centrale i raggi visuali, enti tracciati a partire dagli occhi che si estendono in linea retta verso le cose viste, formando un cono con vertice nell’occhio e base negli oggetti: lo stesso oggetto appare più o meno grande a seconda della più o meno grande apertura del cono da cui è visto L’Ottica di Euclide dunque è un’ottica geometrica che fa pensare a una propagazione rettilinea della luce, in grado di spiegare le forme e le dimensioni con cui gli oggetti illuminati appaiono all’occhio umano. Euclide non specifica il verso di percorrenza dei raggi che i posteri ritennero emanati dall’occhio, mentre Aristotele aveva sostenuto l’idea che fossero gli oggetti a emanare il segnale captato dall’occhio. Con la scomparsa del mondo ellenistico, l’opera di Euclide fu quindi dimenticata e rivalutata solo nel XX secolo.
Fra le opere attribuite a Euclide figura anche una Catottrica, uno studio sulla riflessione della luce. Questo fenomeno, insieme con quello della luce diffusa da un mezzo trasparente a un altro, la rifrazione, fu certamente oggetto di studi medievali. Ma gli studi di ottica rifiorirono soprattutto durante il periodo d’oro della civiltà islamica. Nel libro Sugli strumenti ustori, scritto a Baghdad nel 984 da Ibn Sahl (940-1000) e principalmente dedicato alle applicazioni dell’uso della luce nelle lenti e negli specchi ustori, viene formulata una legge della rifrazione equivalente a quella enunciata da Willebrord Snellius (1580-1626) nel 1621. Il maggior esponente della scuola araba di ottica, e da molti considerato come padre dell’ottica moderna, è però il suo più famoso allievo, Alhazen [Abū ʿAlī al-Ḥasan ibn al-Ḥasan ibn al-Haytham (965-1040)]. Nella sua opera in sette volumi, Kitāb al-Manāẓir (Libro di ottica), pubblicata nel 1015, Alhazen immaginava la luce come la propagazione di palline. Tre secoli dopo, invece, il fisico persiano Kamal al-Din al-Farisi (1267-1319) scrisse un commentario al testo di Alhazen e, nello spiegare l’arcobaleno, immaginava una propagazione ondulatoria della luce.
La natura ondulatoria della luce fu invocata dall’astronomo e fisico gesuita Francesco Maria Grimaldi (1618-1663) nel De Lumine, pubblicato a Bologna nel 1665, in cui descrive per la prima volta e spiega la diffrazione della luce. Questo fenomeno risulta dalla deviazione della luce dalla sua direzione di propagazione provocata dall’attraversamento di un’apertura di opportuna ampiezza praticata in una parete ed è portata oggi come una delle prove della propagazione ondulatoria della luce. Anche Robert Hooke (1635-1703) nello stesso anno sostiene la natura ondulatoria della luce in un testo, Micrographia, dedicato alle osservazioni mediante lenti e al microscopio.
Ma l’origine della disputa tra i sostenitori della propagazione corpuscolare e quelli della propagazione ondulatoria viene attribuita alle diverse opinioni di Isaac Newton (1642-1727) e di Christiaan Huygens (1629-1695). Nel 1704 Newton aveva pubblicato un trattato, Opticks, su riflessione, rifrazione e colori della luce, ipotizzandone la costituzione corpuscolare. La sua teoria non poteva spiegare la rifrazione e i fenomeni di diffrazione e interferenza, perché imponeva una velocità dei corpuscoli luminosi maggiore nel mezzo più denso che Newton interpretava come effetto dell’accelerazione provocata dall’attrazione gravitazionale, più forte in presenza di maggiore densità di materia. Huygens invece, basandosi sull’ipotesi dell’esistenza dell’etere, un mezzo isotropo, estremamente sottile e perfettamente elastico, immaginava che la luce fosse costituita da un insieme di onde meccaniche che si muovono con velocita finita, inferiore nei mezzi che non siano l’etere. A lui si deve il principio in base al quale ogni punto del fronte d’onda è centro di onde secondarie e la costruzione del nuovo fronte d’onda risulta dall’inviluppo di queste onde secondarie.
Ma, in mancanza di dati sperimentali che potessero discriminare tra le due ipotesi, l’autorità di Newton prevalse su quella di Huygens.
Nel 1802 Thomas Young (1773-1829) riuscì a dimostrare la validità del principio di Huygens sulla costruzione e propagazione del fronte d’onda e a spiegare le modulazioni di intensità risultanti dall’interferenza delle onde diffratte da due fenditure investite dall’onda originale. È merito di Augustin-Jean Fresnel (1788-1827) aver divulgato questo risultato nelle sue Mémoires del 1826. La risposta definitiva sulla non validità della teoria corpuscolare venne poi a metà secolo XIX dagli esperimenti sulla velocità della luce nel vuoto (aria) e in un mezzo per opera di Armand-Hyppolite Louis Fizeau (1819-1896) e di Jean-Bernard Léon Foucault (1819-1868), rispettivamente con la ruota dentata e lo specchio rotante: per Newton la luce si propagava a velocità maggiore nel mezzo, mentre gli esperimenti fornirono una velocità minore rispetto all’aria o al vuoto.
Finalmente, dopo un approfondito studio sui fenomeni elettrici e magnetici che ha caratterizzato i primi due terzi del XIX secolo, nel 1865 James Clerk Maxwell (1831-1879) riconobbe la luce come una particolare manifestazione della propagazione ondulatoria del campo elettromagnetico regolata dalle sue quattro famose equazioni, con la velocità della luce definita dalla permettività elettrica e dalla permeabilità magnetica. La conferma dell'esistenza delle onde elettromagnetiche venne da una serie di esperimenti iniziati nel 1886 da Heinrich Rudolf Hertz (1857-1894). Ma la storia non finisce qui. Per continuare è opportuno rivedere come si presentano in fisica i concetti di corpuscolo e onda.
2. Il concetto di corpuscolo
In genere, per corpuscolo si intende un corpo piccolissimo, una minutissima particella di sostanza corporea. Secondo il Dizionario Treccani, in fisica lo è “ogni ente dotato di una sua individualità, macroscopicamente piccolo, o anche di dimensioni microscopiche o submicroscopiche, ma in genere risultante già dall'organizzazione di più particelle (micelle colloidali, cellule, grani di pulviscolo, di fumo, ecc.); in certi casi è sinonimo di particella elementare.” Nello studio del moto si parla anche di punto materiale, intendendo di poter descrivere anche un corpo esteso limitando l’esame al moto del suo centro di massa che descrive una traiettoria nello spazio secondo le leggi della dinamica. Perciò si parla parimenti di orbita di un pianeta intorno al sole o di un elettrone intorno al nucleo atomo. Le leggi del moto della dinamica newtoniana permettono di individuare in modo univoco la traiettoria descritta dal punto materiale, definendone in ogni istante la posizione e la velocità (o la quantità di moto, prodotto di massa e velocità).
Ai nostri fini è importante il principio di azione stazionaria enunciato nel 1744 da Pierre Louis Moreau de Maupertuis (1698-1759) per stabilire l’effettiva traiettoria descritta da un punto materiale per andare da un punto all’altro a fissata energia, quasi obbedendo a un finalismo provvidenziale: “L'action est proportionnelle au produit de la masse par la vitesse et par l'espace. Maintenant, voici ce principe, si sage, si digne de l'Etre Suprème: lorsqu'il arrive quelque changement dans la Nature, la quantité d'action employée pour ce changement est toujours la plus petite qu'il soit possible.”
Il principio di Maupertuis è all'origine di quella branca dell'analisi matematica chiamata “calcolo delle variazioni”, che Leonhard Euler (1707-1783) perfezionò e applicò a numerose questioni di meccanica e di fisica matematica e che Giuseppe Luigi Lagrange (1736-1813) trasformò in un metodo di calcolo sistematico e generale: di fatto, la meccanica analitica di Lagrange segna l'inizio del calcolo delle variazioni e sfocia nella formulazione più generale delle leggi della meccanica, ad opera di William R. Hamilton (1805-1865), tutta imperniata su una forma generalizzata del principio di Maupertuis, poi detta principio di Hamilton.
3. Il concetto di onda
Sempre secondo il Dizionario Treccani, “nel linguaggio scientifico, con riferimento a un determinato mezzo fisico (l'acqua, l'aria, ecc.) o al vuoto, il termine onda indica l’andamento, generalmente periodico, più o meno regolare, col quale una perturbazione determinatasi in un punto del mezzo si propaga nello spazio ad esso circostante.”
È detta fronte d'onda la superficie dello spazio che racchiude, istante per istante, l'insieme dei punti raggiunti dalla perturbazione a quell'istante; per onde periodiche regolari si dice lunghezza d'onda la distanza tra due massimi successivi della grandezza che oscilla, frequenza dell'onda il numero di massimi consecutivi che passano nell’unità di tempo nel punto di oscillazione, ampiezza dell'onda la differenza tra il massimo spostamento e la posizione di quiete della grandezza oscillante. In particolare, si parla di onde sferiche o di onde piane, che si hanno rispettivamente quando i fronti d'onda sono costituiti da sfere concentriche o piani paralleli; le onde possono essere infine longitudinali o trasversali, a seconda che le particelle del mezzo oscillino, rispettivamente, nella stessa direzione di propagazione dell'onda, o in direzione perpendicolare: per esempio le onde sonore nell’aria sono longitudinali, mentre in un mezzo solido possono essere sia longitudinali che trasversali. La direzione di propagazione viene opportunamente definita in ogni punto dal raggio, elemento di linea sempre perpendicolare al fronte d’onda. La velocità di propagazione dell’onda si ottiene dal prodotto della lunghezza d’onda per la frequenza: per la luce nel vuoto si è soliti indicarla con la lettera c, mentre in un mezzo la velocità v risulta inferiore e il rapporto tra c e v viene denominato indice di rifrazione del mezzo.
La matematica per descrivere la propagazione di un’onda è stata sviluppata da Jean-Baptiste le Rond d’Alembert (1717-1783) ed è racchiusa nell’equazione che porta il suo nome.
Accanto al cammino geometrico, nel 1662 Pierre de Fermat (1601-1665) introdusse il cammino ottico, che si ottiene pesando il cammino geometrico con l'indice di rifrazione del mezzo in cui il raggio di luce si propaga, ed enunciò il principio secondo il quale il tempo impiegato dalla luce nel suo cammino ottico da un punto a un altro risulta minimo (o massimo) lungo la traiettoria effettivamente descritta dal raggio di luce. Pertanto, se la luce viaggia con diverse velocità in mezzi diversi, essa sceglierà la via che comporta il tempo più breve per passare da un punto all'altro: questa non coinciderà con una retta, ma sarà tale che la luce compia il massimo percorso nel mezzo in cui procede più velocemente, e il minimo percorso in quello in cui procede più lentamente: questo è appunto il comportamento della luce nel fenomeno della rifrazione.
Il principio è interessante in quanto nella propagazione dell’onda di luce il cammino ottico, misurato in lunghezze d’onda, gioca lo stesso ruolo dell’azione del principio di Maupertuis nel definire la traiettoria percorsa dal punto materiale: è una prima analogia per una meccanica delle onde.
4. Il dualismo onda-corpuscolo
Il 14 dicembre 1900 alla Società Tedesca di Fisica riunita in Berlino Max Karl Ernst Ludwig Planck (1858-1947) comunica di essere riuscito a riprodurre l’andamento in frequenze dell’intensità luminosa emessa da un corpo caldo: ha ottenuto la sua formula immaginando che l’energia della radiazione sia discretizzata in elementi di energia, E = hν, proporzionale alla frequenza ν attraverso una costante h che da lui ha preso il nome di costante di Planck.
Quello che per Planck era un artificio di calcolo si è invece rivelato un aspetto essenziale per la descrizione della radiazione grazie ai lavori di Albert Einstein (1879-1955) tra il 1905 e il 1909: l’energia della radiazione di frequenza può decomporsi in un numero N di quanti hν che si comportano come corpuscoli, possedendo anche una quantità di moto p = hν/c = h/λ. È interessante che nell’analisi di Einstein le fluttuazioni di energia a basse frequenze abbiano la stessa struttura prevista per le onde, mentre alle alte frequenze siano quelle associate a un insieme di particelle indipendenti. La duplice natura ondulatoria e corpuscolare diventa costitutiva per una completa descrizione di quella che comunemente viene chiamata radiazione: questa obbedisce alle equazioni di Maxwell durante la propagazione ondulatoria, ma rivela il suo aspetto corpuscolare nell’interazione con la materia.
La conferma sperimentale del comportamento corpuscolare della radiazione viene ben presto fornita da Arthur Holly Compton (1892-1962) nello studio dell’effetto che porta oggi il suo nome: l'aumento della lunghezza d’onda λ dei raggi X deviati dall’interazione con gli elettroni atomici presenti in un bersaglio illuminato dai raggi X è provocata dalla perdita di energia del quanto di luce nell’urto con un elettrone atomico. Le fotografie dell’esperimento che Compton condusse nel 1925 con A.W. Simon sono la prova evidente che l’elettrone viene espulso dall’atomo per l’urto subito ad opera di quello che l’anno dopo Gilbert Newton Lewis chiamerà fotone. Il fotone dunque, oltre a possedere energia E = hν , ha effettivamente anche una quantità di moto p = h/λ.
In quegli anni, nel suo lavoro per la tesi di dottorato, Louis-Victor de Broglie (1892-1987) riprende idee già sviluppate un secolo prima da Hamilton nel confronto tra moto classico di una particella e punto di vista dell'ottica geometrica, basata sul cammino percorso da un raggio di luce. Alla luce dell’analogia tra principio di Maupertuis e principio di Fermat, de Broglie riconosce che l’indice di rifrazione del mezzo, responsabile della variazione di lunghezza d’onda per l’onda che lo attraversa, svolge lo stesso ruolo del campo di forze che modifica la quantità di moto di una particella che vi è immersa. Ne consegue l’audace proposta che il legame tra energia e frequenza da un lato e tra quantità di moto e lunghezza d’onda dall’altro sia un legame valido non solo per la radiazione, ma anche per la materia, e in particolare per una particella come l’elettrone: la traiettoria percorsa dall’elettrone si mantiene sempre ortogonale al fronte dell’onda associata, così come il raggio di luce (che indica la traiettoria del fotone) risulta sempre perpendicolare al fronte dell’onda luminosa. All’incredulo Jean Baptiste Perrin (1870-1942), presidente della commissione per l’esame finale di dottorato, de Broglie suggerisce che esperimenti di diffrazione e interferenza con elettroni avrebbero potuto metterne in evidenza la loro natura ondulatoria.
In anni recenti tali esperimenti sono stati condotti non solo con elettroni, per esempio dal gruppo giapponese di A. Tonomura, ma anche su particelle molto più massive, come il fullerene utilizzato dal gruppo austriaco di A. Zeilinger: i dati ottenuti sono sempre stati in ottimo accordo con il risultato di un calcolo basato sull’equazione fondamentale della meccanica quantistica proposta nel 1926 da Erwin Schrödinger (1887-1961).
Con l’avvento della meccanica quantistica e la sua interpretazione codificata a Bruxelles nel V Congresso Solvay nell’ottobre 1927, il “nuovo elettromagnetismo” auspicato da de Broglie veniva proposto come il nuovo paradigma per lo studio dei fenomeni fisici. In quell’anno era stato scoperto da Werner Heisenberg (1901-1976) il principio di indeterminazione, in base al quale è un fatto di natura l’impossibilità di determinare con assoluta precisione simultaneamente la posizione e la quantità di moto di una particella, sia essa un elettrone, un fotone, o altro: se si conosce la posizione e si opera una misurazione di quantità di moto, si acquisisce un nuovo dato, ma si perde l’informazione che si aveva sulla posizione, che diventa indeterminata, e viceversa. Ciò contrasta con quanto invece è possibile nella descrizione classica del moto, in cui ogni osservazione arricchisce l’informazione precedentemente acquisita. In particolare, poi, viene meno la possibilità di definire la traiettoria descritta da una particella e la possibilità di seguire lo sviluppo del suo moto, non potendosi determinare con assoluta precisione contemporaneamente posizione e quantità di moto. Ha buon gioco quindi Heisenberg nell’affermare che “nella formulazione precisa del principio di causalità: se conosciamo in modo preciso il presente, possiamo prevedere il futuro, non è falsa la conclusione, bensì la premessa. In linea di principio noi non possiamo conoscere il presente in tutti i suoi dettagli. […] siccome tutti gli esperimenti sono soggetti alle leggi della meccanica quantistica […], mediante la meccanica quantistica viene stabilita definitivamente la non validità del principio di causalità.”
In effetti se si pensa di trattare l’elettrone come una particella cercando di localizzarlo mediante un ipotetico microscopio, non si riesce a determinare la sua posizione meglio di quanto permesso dal potere risolutivo dello strumento; d’altra parte la necessaria illuminazione per poter osservare l’elettrone gli imprime per effetto Compton un’indeterminazione di quantità di moto tale che il prodotto tra le indeterminazioni di posizione e di quantità di moto non può diventare inferiore a una quantità dell’ordine di h. D’altro canto, se si accetta il comportamento ondulatorio degli elettroni e se ne fa passare un fascio, tutti con la stessa quantità di moto, attraverso una piccola fenditura operata in uno schermo, il fascio si distribuisce nello spazio dopo lo schermo in modo da raccogliere su uno schermo successivo una distribuzione di elettroni modulata come negli esperimenti di diffrazione di luce. L’indeterminazione di posizione, uguale all’ampiezza trasversale della fenditura, e l’indeterminazione della quantità di moto trasversale indotta dall’attraversamento della fenditura sono di nuovo in relazione tra loro con la stessa limitazione prevista dal principio di indeterminazione.
Dunque nel formalismo quantistico il dualismo onda-corpuscolo evidenzia situazioni antagoniste per il senso comune: posizione e quantità di moto risultano osservabili incompatibili, ma complementari. È questo un fenomeno caratteristico della descrizione quantistica: esistono coppie di variabili complementari, ma incompatibili dal punto di vista di una loro determinazione simultanea, come per esempio due proiezioni dello spin dell’elettrone in direzioni ortogonali. Più in generale, la realtà fisica che soggiace ai fenomeni osservabili con l'occhio della scienza presenta un insieme di potenzialità che, secondo la fisica quantistica, non possono essere esplorate tutte simultaneamente e che si attuano piuttosto di volta in volta solo nel rapporto con l'osservatore quando si viene a formare il fenomeno. Questo risulta dall’interazione tra l’osservatore e la realtà osservata, è l’incontro tra osservato e osservatore, che non è solo passivo spettatore: l’osservatore ha un ruolo attivo nel formare il fenomeno decidendo quale misurazione effettuare e quale tipo di informazione ottenere. Secondo questa visione dunque, ci si riferisce a una realtà percepita contrapposta a una realtà in sé.
5. Conclusioni
A causa del principio di indeterminazione occorre abbandonare non solo il principio di causalità, ma anche il determinismo proprio della descrizione classica con la dinamica newtoniana per le particelle o le equazioni di Maxwell per il campo elettromagnetico. Il dualismo onda-corpuscolo è però solo un aspetto particolare della complementarità dei fenomeni osservabili, in quanto le potenzialità della realtà che soggiace ai fenomeni non possono essere esplorate contemporaneamente, ma si attuano solo singolarmente quando si viene a formare il fenomeno in rapporto con l'osservatore: la scelta del tipo di misurazione determina quale aspetto della realtà viene osservato. Quindi la realtà della quale possiamo parlare non è mai la realtà in sé, ma è una realtà dovuta alla nostra presa di coscienza o perfino, in molti casi, da noi configurata: una realtà percepita.
Tuttavia, si può ancora parlare di una realtà oggettiva. Comprendere la natura implica infatti stabilire le connessioni tra fenomeni diversi, cioè le leggi che li governano, e riconoscere un certo ordine che regola un gruppo di fenomeni riconducendoli a un unico principio. La scienza corrisponde a una realtà oggettiva, perché è in grado di stabilire delle leggi che regolano i fenomeni, quei fenomeni che derivano dall'incontro tra osservato e osservatore.
Come diceva Paul Adrien Maurice Dirac (1902-1984): “lo scopo principale della fisica non è di fornire dei modelli, bensì di formulare delle leggi che governino i fenomeni e la cui applicazione porti alla scoperta di nuovi fenomeni. Se poi esiste un modello, tanto meglio; ma l'esistenza o no di questo è problema di secondaria importanza.” In quanto al ruolo dell’osservatore, come diceva il maggiore responsabile dell’interpretazione di Copenhagen della meccanica quantistica, Niels Hendrik David Bohr (1885–1962), “non si deve mai dimenticare che noi stessi siamo sia attori che spettatori nel dramma dell'esistenza.”
Testo del seminario "Le parole della scienza", tenuto al SEFIR, 23 ottobre 2015. Gentile concessione dell'Autore