Microlaser o nanotubi?

Pochi giorni fa Horst Störmer, Nobel 1998 per la fisica, nel comunicare a uno di noi due l’impossibilità a partecipare a un convegno sulla fisica nel prossimo secolo, diceva in un e-mail: “I am really very bad as a futurologist”. L’autorevole umorismo è sufficiente a scoraggiare chiunque. In quest’articolo non ci avventureremo, quindi, in previsioni sul futuro e cercheremo solo di porre in risalto alcuni sviluppi che, nello sconfinato panorama della scienza e tecnologia dei materiali, ci paiono significativi. Per farlo cominciamo dalla fisica dei semiconduttori, prendendo spunto da un’altra affermazione dello stesso Störmer. Rispondendo a un giornalista che gli chiedeva quale interesse pratico potesse esserci nel comportamento degli elettroni confinati in due dimensioni affermava: “Nessuno! E non ne vedo neppure nei prossimi cinquant’anni…eppure un’unica invenzione tecnologica, cioè la possibilità di modulare il drogaggio dei semiconduttori, ha condotto al Nobel da un lato, e ai transistor che si trovano in certi telefonini dall’altro. C’è dunque una connessione profonda fra scienza e tecnologia…io sono altrettanto fiero di aver contribuito alla messa a punto di questi transistor che di aver ricevuto il premio Nobel.” (1). Störmer si riferiva al fatto che la sua scoperta dell’82 era direttamente legata alla possibilità di confinare in due dimensioni gli elettroni in un dispositivo disegnato e studiato, negli stessi anni e nello stesso laboratorio Bell, per nuovi transistor a basso rumore.

Semiconduttori: il microlaser a papillon

La fisica dei semiconduttori rappresenta un fertile terreno d’incontro fra scienza fondamentale e applicata. Scegliamo un altro esempio suggestivo: lo sviluppo del microlaser. Uno dei suoi protagonisti è Federico Capasso, a lungo capo dipartimento ai Laboratori Bell (oggi Lucent Technologies), da pochi mesi insignito della medaglia Lamb per la scienza del Laser e l’Ottica Quantistica.

Nei primi anni ‘90 il piú piccolo laser a semiconduttore del mondo venne realizzato sostituendo i tradizionali specchi paralleli (piani cristallini del semiconduttore) con la riflessione totale sulla superficie interna, curva, di un microdisco. In una tale cavità risonante a simmetria circolare la luce girava attraverso il materiale attivo (che amplifica la luce grazie all’ emissione stimolata) rimbalzando sulle pareti. L’effetto è simile a quello del suono in certe cattedrali, nelle quali, stando vicino alla parete, è possibile ascoltare il mormorio di qualcuno che sta vicino alla parete in un altro punto lontano. L’aumento della riflettività dovuto allo sfruttamento della riflessione interna totale abbassava la soglia per l’accensione dell’effetto laser; la riduzione del volume attivo del materiale riduceva le esigenze di energia e le correnti in gioco, consentendo d’impacchettare un grande numero di laser in un piccolo volume. Purtroppo però, proprio a causa della riflessione totale e della forma circolare, i microlaser a disco, diversamente da quelli a doppio specchio, non riuscivano a raggiungere un’alta potenza di uscita in una ben determinata direzione.

La svolta decisiva è venuta, un paio d’anni fa, da una collaborazione di alto livello teorico, sperimentale e tecnologico (Yale, Lucent Technologies e Max-Planck-Institut) tipica della scienza dei materiali: deformando opportunamente la simmetria circolare, la luce percorre un cammino caotico, che, al di sopra di una certa deformazione critica, forma un ben preciso pattern (a forma di papillon); ciò consente di usare solo parte del perimetro del disco per la riflessione, e di raggiungere un’alta potenza di uscita (mille volte maggiore di quella dei microlaser a disco) in certe direzioni ben definite (2). Anche qui emerge il circolo virtuoso fra scienza fondamentale (caos e biliardi quantistici), scienza dei materiali (crescita e controllo di semiconduttori a livello microscopico) e tecnologia (fasci laser direzionali di alta potenza da dispositivi miniaturizzati), che a piú di cinquant’anni dall’invenzione del transistor (1947) appare tutt’altro che esaurito.

Materiali per l’elettronica e legge di Moore

L’inesauribile vitalità dell’elettronica a stato solido (che oltre alla scienza dei materiali coinvolge naturalmente l’ingegneria elettronica e la scienza dell’informazione, delle quali qui non ci occupiamo) è testimoniata anche dal fatto che, almeno finora, le previsioni piú ottimistiche dei suoi progressi si verificano puntualmente. Fra queste la piú famosa è forse la “legge di Moore”, formulata dal co-fondatore di Intel nel lontano 1965, secondo cui il numero di transistor ospitati da un singolo chip raddoppierebbe all’incirca ogni due anni. La seguente figura non suggerisce alcuna tendenza alla saturazione man mano che ci avviciniamo ai giorni nostri, e il fatto è notevole perché, di decade in decade, i progressi non sono legati ad un’unica legge o effetto fisico, ma a una miriade di piccoli miglioramenti intervallati da alcune svolte rivoluzionarie nella tecnologia d’integrazione. La nostra esperienza quotidiana è del resto in pieno accordo con questo grafico: solo vent’anni fa la potenza di calcolo e comunicazione che abbiamo oggi sulla scrivania, nella borsa o addirittura in tasca avrebbe avuto bisogno di un camion.In questo processo i semiconduttori hanno fatto la parte del leone, dagli ormai classici dispositivi ad accoppiamento di carica (CCD), che fungono da elemento sensibile e registro temporaneo nelle nostre videocamere e nei lettori di codici a barre dei supermercati, ai chips nei computer e nei modem sempre più veloci, alle batterie solari (forse domani piú leggere grazie al composto InGaAsN) che forniscono elettricità a satelliti e macchine fotografiche digitali. Le tappe di una simile maratona coinvolgono naturalmente anche componenti non basate sui soli semiconduttori: memorie di massa magnetiche, come il disco del nostro PC (passato in dieci anni dai megabytes ai gigabytes), o ottiche, come i CD; schermi a cristalli liquidi con risoluzione sempre migliore; batterie ricaricabili (quelle dei telefonini, delle viedocamere e dei computer portatili) capaci di durare sempre di piú e pesare sempre di meno. Ciascuna di queste componenti rappresenta un diverso capitolo della chimica e fisica dei materiali in continua evoluzione, cui la miniaturizzazione pone sfide sempre nuove. Viziati dal passato, possiamo considerare plausibile che la legge di Moore continui a valere anche oltre il prossimo decennio. Ma non sappiamo ancora, per esempio, come sarà concretamente possibile ridurre ancora il calore dissipato e la potenza impiegata dal singolo transistor. Domande di questo tipo chiamano in causa la scienza fondamentale, dalla scala nanometrica (un miliardesimo di metro) nei semiconduttori, che alimenta l’interesse per punti e fili quantistici, alla progettazione di materiali e dispositivi completamente diversi, adatti ai futuri “quantum computers” ancora lontani da una realizzazione (in proposito David Mermin, autore di un popolare manuale di Fisica dei Solidi e attualmente interessato a queste problematiche, parla di Gedanken technology).

Polimeri e reazioni catalitiche

Nel film Il laureato (1967) un amico di famiglia si rivolgeva al giovane Dustin Hoffman con un perentorio consiglio per il futuro: “Voglio dirti una sola parola: plastica!” La plastica ha certamente caratterizzato la rivoluzione tecnologica del dopoguerra non meno del transistor. Oggi vengono prodotte 170 milioni di tonnellate all’anno di polimeri, delle quali metà poliolefine come il polietilene e il polipropilene, per la cui sintesi Ziegler e Natta vinsero il Nobel nel 1963. Alla loro base c’è, com’è noto, la formidabile capacità degli atomi di carbonio di legarsi in lunghe catene che ne costituiscono la spina dorsale. La produzione e il processing delle poliolefine costa meno delle plastiche che esse sono in grado di sostituire, e il continuo miglioramento della loro resistenza e durata consente di ridurne la quantità. Qualche esempio: fra il ‘72 e il ‘90 il peso di una busta da supermercato è calato da 23 a 6 grammi; gli odierni bicchierini di yogurt (in polipropilene) usano meno di due terzi del materiale che usavano negli anni 80. Non sorprende che, come nel caso dei semiconduttori, l’enorme interesse tecnologico e commerciale faccia da potente traino alla ricerca: a distanza di quasi cinquant’anni dalla scoperta di Ziegler e Natta i meccanismi della catalisi eterogenea (il ruolo giocato dai composti solidi che consentono la crescita di una catena polimerica ordinata a partire da monomeri, cioè molecole componenti, in fase gassosa) sono oggetto di continuo miglioramento ed intensa ricerca.

Non si tratta soltanto di ricerca applicata, né solo sperimentale: anche grazie alla Teoria del Funzionale Densità di Walter Kohn (Fisico, Nobel ‘98 per la Chimica), agli pseudopotenziali di Hamann, Schlüter e Chiang (Bell Labs), e alla dinamica molecolare da primi principi di Roberto Car e Michele Parrinello (oggi a Princeton e al Max-Planck-Institut di Stoccarda, ma al tempo della scoperta entrambi alla SISSA di Trieste) è ormai possibile prevedere al calcolatore l’evoluzione temporale di ioni ed elettroni, contribuendo cosí, oltre che alla previsione di proprietà elettroniche e strutturali dei materiali, anche a una migliore comprensione di vecchie e nuove reazioni catalitiche, di grande interesse per la chimica pura e applicata (3).

Polimeri e meccanica statistica

Tutti ricordano il plateale esperimento del premio Nobel Richard Feynman dopo l’incidente dello Shuttle: gli “O-rings”, guarnizioni toroidali in fluorocarburi elastomeri, diventavano improvvisamente rigide e fragili una volta immerse nell’acqua ghiacciata. Prima di abbandonare i materiali polimerici (famiglia che oltre alle catene organiche basate sul carbonio include anche altri tipi di catene, come quelle dei siliconi) è opportuno un cenno, sia pur sommario, alle proprietà legate all’ordine (o disordine) che li caratterizza: le singole catene ordinate che li compongono possono essere comprese dalla teoria degli stati elettronici su scala atomica, ma la loro natura plastica, gommosa o vetrosa, la loro elasticità o fragilità, dipendono crucialmente dall’enorme gamma di possibilità con cui miliardi di queste catene possono organizzarsi insieme per formare il materiale (impacchettandosi, arricciolandosi o intrecciandosi fra loro come spaghetti) e quindi anche dalle condizioni termiche e dalla storia del materiale. Anche in questo campo alla mole di esperienza tecnologica e sperimentale si affiancano oggi ricerche teoriche basate sui piú moderni sviluppi della meccanica statistica, in grado di affrontare sistemi complessi dotati di un grandissimo numero di configurazioni con energie paragonabili, dall’invecchiamento dei vetri al ripiegamento delle proteine (4).

Altre proprietà dei polimeri sono sfruttate dai gel acquosi, reti capaci di trattenere al proprio interno l’acqua, cambiando volume anche di diversi ordini di grandezza e rispondendo a stimoli esterni. Essi sono di enorme interesse per applicazioni biomediche, per esempio per i tessuti artificiali capaci di lasciarsi poco alla volta infiltrare e rimpiazzare dal vero tessuto già sperimentati con successo, oppure per i muscoli artificiali, sui quali si è recentemente cimentato (5) anche il teorico Pierre-Gilles de Gennes, Nobel per la fisica nel ‘91 per i cristalli liquidi. In questo nuovo contesto di “materia soffice” e biologica da un lato, e di comportamento critico di una rete di legami vicino alla transizione liquido-solido dall’altra, la stessa acqua appare come una miniera ancora da esplorare per la fisica, la chimica e la meccanica statistica (6).

Micromacchine, fullereni e nanotubi

La varietà di legami che il carbonio è in grado di formare con altri atomi, in particolare con altri atomi di carbonio, non è però limitata ai polimeri: per esempio è di pochi mesi fa l’annuncio, da parte dei laboratori Sandia (USA), della prima micromacchina di dimensioni submillimetriche basata sul diamante amorfo anziché sul silicio policristallino, piú resistente all’usura e meno “appiccicoso”, non essendo idrofilo. L’interesse di queste macchine va dagli airbag delle automobili ai microspecchi dei satelliti, fino a possibili applicazioni biomediche (nelle quali il carbonio non presenterebbe gli inconvenienti allergici del silicio).Ma la piú grande novità che riguarda il carbonio è probabilmente rappresentata dai fullereni e dai nanotubi. Fino a circa il 1990 si conoscevano due forme cristalline del carbonio. Una era il diamante, cristallo tridimensionale nel quale ciascun atomo di carbonio è fortemente legato ai suoi quattro vicini, disposti ai vertici di un tetraedro regolare. L’altra era la grafite, lamellare, fatta di piani cristallini debolmente interagenti fra loro, ciascuno dei quali ha struttura periodica esagonale (come i nidi d’ape), con ogni atomo di carbonio fortemente legato ai tre vicini. A cavallo fra gli anni 80 e 90 la fuliggine creata dall’evaporazione della grafite ha rivelato che il carbonio può organizzarsi in una vasta gamma di altri aggregati ordinati, somiglianti a fogli di grafite variamente ripiegati su se stessi, dotati di sorprendenti (e tecnologicamente promettenti) proprietà.

L’attenzione si è all’inizio concentrata sui fullereni (il nome deriva dall’architetto famoso per le cupole geodetiche), e in particolare sulla molecola C60: sessanta atomi che compongono una specie di pallone da calcio in miniatura, con un atomo su ogni vertice dei 20 esagoni e 12 pentagoni che ne costituiscono la superficie. L’interesse nasceva non solo dalla grande stabilità e simmetria, ma anche dalla sintesi di superstrutture periodiche: cristalli molecolari nei quali, al posto di ogni atomo, c’è un’intera molecola di C60. Queste molecole sono abbastanza lontane e debolmente interagenti fra loro, proprio come i piani nei cristalli di grafite, e infatti anche negli interstizi fra questi “palloni” è possibile introdurre atomi di altro tipo (tipicamente metalli alcalini). Questo modifica le proprietà elettriche complessive, e i cristalli così ottenuti diventano in alcuni casi superconduttori a una temperatura molto maggiore degli analoghi intercalati di grafite: fra 30 e 40 kelvin (fra -230o e -240o C), meno dei superconduttori ad alta temperatura, ma molto piú della grafite intercalata (che diventa superconduttrice a meno di un grado kelvin) e anche del miglior superconduttore tradizionale. (23 kelvin, vedi figura e paragrafo finale).

All’interesse per i fullereni, tuttora notevole (7), è subentrato quello per i nanotubi, minuscoli tubi di carbonio (la circonferenza si misura in pochi atomi, cioè qualche nanometro; la lunghezza può arrivare a migliaia di atomi e oltre) che si possono pensare come fogli di grafite chiusi cilindricamente su se stessi e terminati da due semisfere simili ai fullereni. Gli stessi approcci teorico-computazionali citati a proposito delle reazioni catalitiche e dei fullereni (3,7) hanno contribuito anche in questo caso, con suggerimenti e previsioni affidabili sulle loro proprietà e la loro crescita, all’evoluzione delle conoscenze sperimentali (8). I nanotubi sono cento volte piú forti dell’acciaio, dieci volte piú leggeri, e capaci di piegarsi senza rompersi. Una delle prime applicazioni potrebbero essere i velcri, cioè quei dispositivi, attualmente basati su fibre metalliche, che sostituiscono le cerniere lampo nell’unire due lembi di tessuto. Anche le loro proprietà elettriche sono notevoli; essi potrebbero, in alternativa ai semiconduttori, realizzare memorie elettroniche mille volte piú piccole di quelle possibili oggi, o sostituirli (con esigenze di potenza molto inferiori) negli schermi televisivi piatti a emissione di campo.

Questo nuovo tipo di aggregati ha anche aperto la possibilità di sintetizzare artificialmente nuovi sistemi di carbonio amorfo (9). Un complesso apparato di generazione di fasci molecolari deposita su un substrato una polvere di carbonio in cui sono presenti (in modo controllato e predeterminato) opportuni precursori (cioè fullereni o loro frammenti, catene lineari o anelli chiusi), che non si frammentano al momento della deposizione. Lo strato (o film) depositato eredita cosí dai precursori una peculiare struttura di grana nanoscopica; in particolare esso presenta al suo interno enormi cavità, che risultano ideali per future applicazioni come celle a combustibile (immagazzinatori di idrogeno), che potrebbero presto sostituire le batterie dei nostri portatili, ma anche sensori di gas o raccoglitori (su scala molecolare) di impurezze. Alternativamente essi potrebbero essere usati come condensatori elettrostatici di altissima capacità. Poiché, fatto non ovvio a priori, la porosità dei film non ne pregiudica la durezza, paragonabile al diamante, essi potranno trovare applicazione anche per rivestimenti ultra-resistenti tra parti meccaniche soggette a usura per attrito di contatto.

Materiali reali e frattura

La crescita quasi perfetta di alcuni cristalli, come i semiconduttori per la microelettronica di cui si parlava all’inizio, viene oggi controllata a livello atomico. Questo però rappresenta, almeno per il momento, l’eccezione e non la regola: la maggioranza dei materiali (per edifici, automobili o aerei) è prodotta in quantità industriali con processi meno raffinati, che non forniscono monocristalli, ma complesse misture di microscopici cristalliti (grani) differentemente orientati.

I singoli cristalliti contengono spesso una certa concentrazione di atomi estranei, presenti come risultato di processi naturali di formazione o di inserzioni, volute o involontarie (contaminazione), durante il processo di fabbricazione. Questi due tipi di deviazioni (strutturale e di composizione) dall’ordine cristallino determinano in ultima analisi il complesso delle proprietà meccaniche di un materiale. Per esempio l’interazione tra differenti tipi di difetti estesi (quali i bordi tra i diversi grani o le dislocazioni, cioè le irregolarità rispetto al normale “registro” degli atomi nel reticolo cristallino) governa su scala atomica complesse fenomenologie: dallo scorrimento relativo dei grani in un materiale policristallino durante processi di deformazione plastica o superplastica, alla migrazione e coalescenza di dislocazioni con conseguente formazione di nuove polistrutture. Anche in questo campo, come in quello dei polimeri, una sfida per la scienza dei materiali è rappresentata dal gap da colmare fra la scala microscopica, atomica, e quella delle proprietà macroscopiche, di effettivo interesse per progettisti e ingegneri.

Un esempio illuminante è quello della frattura. La frattura macroscopica di un materiale è innescata dalla propagazione di microfratture al suo interno. La singola microfrattura, nucleata in punti di particolare debolezza del materiale (bordi di fase o bordi di grano, per esempio), è ormai studiata su scala atomica con modelli anche molto realistici (10). E’ possibile individuare i processi d’interazione tra atomi, di dislocazione e di migrazione coinvolti nella propagazione della microfrattura: un grande successo della teoria degli stati elettronici, che già fornisce idee e ricette funzionanti per la composizione, per esempio, di nuove leghe metalliche (11). Ma se la domanda a cui rispondere è: “in quale punto cederà la pala della turbina?” non è sensato inseguire i dieci ordini di grandezza che separano l’angstrom dal metro con metodi di forza bruta. Per farlo occorrerebbe invece, anche qui, combinare le informazioni già disponibili alle diverse scale con gli sviluppi piú recenti della meccanica statistica (di cui anche la frattura è un capitolo in evoluzione (12)), senza perdere di vista l’approccio finale, tecnologico, cui ci si vuole ricollegare.

All’altro estremo il materiale viene infatti già da molto tempo studiato come un continuo deformabile in modo reversibile (materiale elastico) o irreversibile (materiale plastico), e le sue proprietà descritte su scala spazio-temporale macroscopica, propria del mondo delle applicazioni. L’industria aereospaziale, automobilistica o navale fa ampio ricorso a questo approccio per determinare la resistenza (o fragilità) di componenti soggetti a vite operative intense: l’ala di un aereo, la scocca di un’automobile, lo scafo di una nave. La strada da percorrere in questa direzione è ancora lunga, non solo per le barriere culturali che ancora dividono l’ingegnere dal fisico, ma anche perché un efficace ponte dal micro al macro richiede molte nuove idee. Tuttavia sta crescendo un forte consenso sul fatto che solo uno sforzo cooperativo tra le due comunità e una non banale combinazione gerarchica di diversi modelli interpretativi potrà condurre a una comprensione profonda delle proprietà meccaniche e a un loro controllo durante i vari processi di produzione e operazione: riassunta efficacemente nella definizione “science-based engineering”, questa strategia è stata riconosciuta valida anche dalle principali agenzie di finanziamento della ricerca (13).

Superconduttori

John Bardeen (1908-1991) ha vinto ben due premi Nobel per la fisica: il primo nel ‘56 (con Brattain e Shockley) per il transistor scoperto nel ‘47; il secondo nel ‘72 (con Cooper e Schrieffer) per la teoria della superconduttività, elaborata nel ‘57 (nota come teoria BCS). Mentre i semiconduttori hanno visibilmente invaso la nostra vita, non altrettanto si può dire dei superconduttori: ci sono molte applicazioni importanti per la scienza e l’alta tecnologia, come i sensibilissimi rivelatori SQUID (dispositivi superconduttori a interferenza quantica), ma per ora solo alcune di esse, come i magneti superconduttori di uso ormai standard negli apparati di risonanza magnetica nucleare utilizzati per la diagnostica medica, sono uscite dai confini dei grandi laboratori di ricerca per entrare nella vita di tutti i giorni. Il problema è che lo stato superconduttivo si realizza (e soltanto in alcuni materiali) a temperature bassissime: nel 1911 l’olandese Heike Kamerlingh Onnes (Nobel 1913) osservò la scomparsa della resistenza elettrica nel mercurio grazie ai suoi nuovi metodi di liquefazione dei gas, fra cui l’elio, il cui punto di liquefazione è di poco superiore allo zero assoluto (-273o C). Per raggiungere temperature così basse occorre parecchia energia e apparati tutt’altro che tascabili.

Un grande interesse si è così appuntato fin dall’inizio sulla temperatura critica di transizione dal normale comportamento metallico a quello superconduttivo. Nella figura è mostrato approssimativamente il lento progresso di questo parametro (l’asse dei tempi copre un secolo): dopo il mercurio, pur in assenza di una teoria coerente, arrivata più di quarant’anni dopo, il lavoro sperimentale ha via via identificato altri metalli con temperatura di transizione un po’ migliore, ma sempre molto bassa. Anche l’arrivo, nel ‘57, della fondamentale teoria BCS non ha introdotto variazioni di rilievo nel ritmo di questo progresso; alcuni suoi sviluppi hanno suggerito addirittura una temperatura limite, al di sopra della quale non si sarebbe potuto andare, dando un duro colpo al sogno di superconduttori a temperatura ambiente. Essa era infatti prevista ben al di sotto non solo della temperatura ambiente, ma anche, purtroppo, dell’azoto liquido (che costa meno dell’elio liquido).

L’impennata della temperatura critica arriva nel 1986 con la scoperta sperimentale di una nuova famiglia di superconduttori cuprati da parte di Bednorz e Müller (Nobel ‘87). Si parla di cuprati perché ciò che accomuna questi materiali – ceramici, per niente simili ai metalli o alle leghe metalliche dei superconduttori precedenti e dotati di una struttura cristallina complessa con quattro o cinque elementi chimici diversi – è la presenza di piani di rame e ossigeno. Anche coi nuovi superconduttori cuprati la miglior temperatura critica ottenuta a pressione normale è per ora sempre lontana dalla temperatura ambiente (133 kelvin, cioè -140o C), ma è al di sopra dell’azoto liquido, e il salto è stato sufficiente a risvegliare gli entusiasmi della ricerca e anche un certo interesse industriale: è del maggio scorso, per esempio, la firma di un accordo quadriennale di collaborazione fra Edison, Pirelli Cavi e Sistemi ed Enel per lo sviluppo, la produzione e la sperimentazione di un cavo superconduttore ad alta temperatura.

Della ricerca sperimentale e teorica recente non è facile dar conto in poche frasi: non tanto per l’astrusità di esperimenti e teorie, ma soprattutto perché c’è stata una vera corsa all’oro (dall’86 centinaia e centinaia di sperimentali e teorici hanno abbandonato le loro ricerche usuali, affascinati da questa nuova frontiera), e d’altro canto questo esercito non ha ancora vinto la guerra: la comprensione della superconduttività in questi materiali, per i quali i fondamenti stessi della teoria BCS non sembrano appropriati, è tutt’altro che definitiva (14). In compenso si è scoperto che la natura bidimensionale, le forti correlazioni elettroniche e piccole variazioni della concentrazione di ossigeno sono in grado di pilotare, oltre alla superconduttività, anche l’ordine antiferromagnetico (la disposizione alternata dei momenti magnetici come su una scacchiera della dama), la transizione metallo-isolante e, nello stato metallico, deviazioni dal comportamento convenzionale del “liquido di Fermi”. Cosí, pur non essendoci ancora consenso unanime sui meccanismi della superconduttività e sul quid che determina la temperatura critica, i cuprati superconduttori continuano a rappresentare per molti un irresistibile laboratorio ideale nel quale si giocano quasi tutte le altre sfide più affascinanti della Materia Condensata.

(G.B. Bachelet è molto grato a Saverio Moroni per una rilettura critica di questo manoscritto e diversi consigli utili)

Bibliografia

(1)La Recherce N° 315 Décembre 1998

(2)Claire Gmachl, Federico Capasso, E. E. Narimanov, Jens U. Nöckel, A. Douglas Stone, Jérôme Faist, Deborah L. Sivco e Alfred Y. Cho, Science 280, 1556-1564 (1998)

(3)vedi per esempio R. Fusco, L. Longo, F. Masi e F. Garbassi, Macromolecules 30, 7673 (1997); M. Boero, M. Parrinello e K. Terakura, Journal of the American Chemical Society 120 (1998), 2746-2752; Surface Science 438 (1999) 1-8; M. Boero, M. Parrinello, S. Hüffer e H. Weiss Journal of the American Chemical Society 122, 501-509 (2000).

(4)vedi per esempio S. Franz, M. Mezatd, G. Parisi e L. Peliti, Physical Review Letters 81, 1758 (1998); A. Pagnani, G. Parisi e F. Ricci-Tersenghi, Physical Review Letters 84, 2026-2029 (2000) e riferimenti ivi contenuti.

(5)P.G. de Gennes, preprint, http://arXiv.org/abs/cond-mat/0003012

(6)vedi A.K. Soper e M.A. Ricci, Physical Review Letters 84, 2882-2885 (2000), e riferimenti ivi contenuti; Eric Schwegler, Giulia Galli e François Gygi, Physical Review Letters 84, 2429-2432 (2000), e riferimenti.

(7) per superconduttività e transizione metallo-isolante vedi Olle Gunnarsson, Reviews of Modern Physics 69, 575 (1997); per proprietà strutturali e chimico-fisiche vedi Wanda Andreoni, Annual Reviews of Physical Chemistry 49, 405-439 (1998).

(8)Jean-Christophe Charlier, Alessandro De Vita, Xavier Blase, Roberto Car, Science 275, 647-649 (1997); vedi anche “The Nanotube Site” di David Tománek, Michigan State University, http://www.pa.msu.edu/cmp/csc/nanotube.html;

(9) vedi per esempio P. Milani e S. Iannotta, Cluster beam synthesis of nanostructured materials, Springer Verlag, Berlino 1999

(10) vedi per esempio Materials Science and Engineering: Current status and future directions, Acta Materialia – The Millennium Special Issue (Gennaio 2000).

(11) M.E. Eberhart and A.F. Giamei, Mat. Sci. and Eng. A 248 (1998)

(12) vedi per esempio S. Zapperi, A. Vespignani and H. E. Stanley, Nature 388, 658 (1997).

(13) Ricordiamo per esempio una specifica linea di ricerca nell’ambito del programma americano ASCI (http://www.cacr.caltech.edu/ASAP/), o la recente creazione di un network nazionale finanziato dal Department of Energy (iniziativa CMSN, http://cmpweb.ameslab.gov/ccms/ )

(14) una rassegna sulla superconduttività dal 1911 a oggi si trova su Reviews of Modern Physics 71, S313-S317 (1999), a firma di J. R. Schrieffer (uno dei padri della teoria BCS) e M. Tinkham

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here