Il Signore è sottile, ma non malizioso (Albert Einstein)
INTRODUZIONE
Prendo lo spunto dal mio libro da poco pubblicato Storia naturale del Tempo.L’Effetto Einstein e la Fisica del futuro per offrire al lettore alcune considerazioni su un concetto solo apparentemente semplice ed intuitivo. La storia del concetto di “tempo” è particolare, divisa com’è tra la Fisica e la Filosofia, per non parlare poi della Religione e delle inevitabili citazioni di Sant’ Agostino (che opportunamente evito). Tempo (e spazio) sono esperienze basiche per l’Uomo. Premetto che in questo articolo parlerò esplicitamente del “tempo”, ma che, trattandosi di concetti strettamente correlati, è sempre sottinteso che esiste un’analoga trattazione per lo “spazio”. Considerando poi che utilizzeremo principalmente concetti relativistici ogni qualvolta parlo di tempo occorre intendere lo “spaziotempo”.Ma cos’è il tempo?
Il tempo, intuitivamente è legato a qualche forma di “cambiamento” non strettamente spaziale; anzi potremmo definirlo come la misura di un “cambiamento continuo” e secondo la filosofia senza cambiamento non c’è neppure tempo.Ma cambiamento di cosa? Cambiamento della posizione del sole e delle stelle, della luna, delle stagioni o, in maniera più raffinata, del proprio stato psicologico, del proprio sentire? Queste considerazioni ci portano naturalmente ad una prima distinzione tra “tempo oggettivo” che è possibile misurare strumentalmente ed è uguale per tutti gli osservatori e un “tempo soggettivo”, che, per sua definizione, non è misurabile (ma confrontabile). In questo articolo vogliamo occuparci più propriamente del tempo oggettivo, cioè di quello che utilizza la scienza.
I modi per misurare il tempo, eventi astronomici, clessidre, meridiane, orologi fanno parte della storia della tecnologia.Per quanto riguarda invece la Fisica il discorso è più complesso perché una vera “Fisica temporale” nasce , in senso moderno,solo con i primi esperimenti e quindi se si eccettua qualche eccezione greca, con Galileo Galilei.Allora si comincia ad avvertire la necessità di quantificare esattamente il tempo non solo a fini sociali, ma anche appunto più propriamente scientifici e quindi con una maggiore rigorosità.Ad esempio, la nozione di velocità vista come il cambiamento dello spazio rispetto al tempo (e in seguito quella di accelerazione vista come il cambiamento della velocità rispetto al tempo) apre la strada a questa nuova concezione. A ben considerare è proprio l’analisi differenziale di Newton e Leibnitz che propone quello che diverrà poi un vero e proprio paradigma: una visione della Fisica in cui il tempo è il parametro privilegiato di riferimento a cui rapportare la variazione delle altre grandezze fisiche coinvolte nella descrizione di un fenomeno .
Infatti la seconda equazione di Newton, la celeberrima
(1)F = MA
permette di determinare istante per istante la posizione di un corpo di massa M sottoposto ad una accelerazione A una volta nota la forza F e le sue condizioni iniziali. In pratica potremmo dire che tutta la Fisica dal XVII secolo in poi è basata sul concetto di tempo anche se, ad esempio, per l’equazionecosmologico-quantistica di Wheeler-DeWitt (o WdW) si è parlato di “fine del tempo” e possibilità di descrivere una fenomenologia senza ricorrere (almeno esplicitamente) a tale parametro.Ma torniamo al tempo classicamente inteso.Una volta instauratosi nella Fisica grazie a Galilei e a Newton il nostro parametro si rafforzò viepiù nei secoli successivi divenendo uno dei punti fermi della descrizione fisico-matematica dei fenomeni.Infatti, come già accennato,tutto il settecento e l’ottocento è un fiorire di equazioni differenziali ordinarie e alla derivate parziali che lo vedono da protagonista (quasi) solitario.Il tempo è anche il parametro fondamentale (rispetto a cui variano il campo elettrico e magnetico) delle equazioni di Maxwell.E così giungiamo al XX secolo.Questo secolo risulterà, come noto, assolutamente innovativo per la nostra concezione dell’Universo.Infatti, proprio al suo inizio, fanno la loro comparsa due teorie che rivoluzioneranno non la sola Fisica, ma l’intera scienza e anche il modo di pensare in generale della società: la Teoria della Relatività Ristretta (RR), la Teoria della Relatività Generale (RG) e la Meccanica Quantistica (MQ). Per quanto riguarda il tempo la MQ lo vede come un paramentodi evoluzione di un sistema, importante ma non così determinante come è invece nella Fisica newtoniana; infatti per l’equazione di Schrödingerè più importante conoscere gli auto-valori dell’energia che la sua evoluzione temporale. Completamente diverso è il caso delle Relatività: infatti in esse il tempo cessa di essere solo un parametro evolutivo per divenire il centro dell’interesse stesso della teoria.Possiamo dire, che con le teorie di Einstein, il tempo diviene attore primario della Fisica non solo come parametro evolutivo , ma anche come “oggetto” del sapere stesso (e quindi acquisisce una dimensione filosofica ontologica, ma supportata da elementi quantitativi). Come noto, a partire dalla RR del 1905 lo spazio e il tempo smettono di essere enti separati per divenire un concetto unificato: lo spaziotempo (senza trattino) che compie il “miracolo” di unire grandezze che fino ad allora erano state considerate come completamente separate. Lo spaziotempo fa il suo ingresso nella RR ed è il portato matematico delle equazioni di trasformazione di Lorentz che “mischiano” appunto sia il tempo che lo spazio in un tutto unico.Lo spaziotempo della RR è, come noto, “piatto” o pseudo-euclideo (l’aggettivo pseudo è riferito alla distanza non definita positiva nello spaziotempo di minkowski) mentre lo spaziotempo della RG, completata nel 1915, è “curvo” (ed è incurvato, sostanzialmente, dall’energia/massa).
Il fatto di aver promosso, nelle Relatività, lo spaziotempo a protagonista della Fisica apre scenari assai interessanti ed intriganti.Come il moto è “relativo” anche il tempo e lo spazio sono relativi e quindi cessano di essere concetti “assoluti” come li considerava Newton e tutta la Fisica fino ai primi anni del novecento.E se sono concetti relativi possono avere valori diversi a seconda dei diversi osservatori, in moto, in “quiete”, accelerati o sottoposti ad un campo gravitazionale. Dunque questo apre la strada ad un filone che inizialmente fu guardato con sospetto dai fisici professionisti: quello dei “viaggi nel tempo”.Ormai, dopo che se ne sono occupati fisici del valore riconosciuto come Kip Thorne, Roger Penrose, Paul Davies e (anche se criticamente) Stephen Hawking la materia pare definitivamente sdoganata.Infatti è sperimentalmente noto che il tempo “rallenta” per un osservatore in moto rettilineo uniforme rispetto ad un altro (ma la cosa è reciproca!) e che il tempo rallenta per chi si trova immerso in un campo gravitazionale. Da notare come l’effetto sia reciproco in RR –tra i due osservatori inerziali-, cioè per tutti e due il tempo rallenta, ma non lo sia in RG dove per l’osservatore in un campo gravitazionale il tempo rallenta (rispetto a quello esterno), ma per quello esterno il suo tempo accelera. In questo articolo dunque ci occuperemo solo del tempo relativistico; tuttavia, in Fisica, esiste un altro interessante modo di studiarlo (e definirlo) e cioè quello della termodinamica e della “freccia del tempo” indicata dal Secondo Principio e quindi dall’aumento dell’entropia.
IL TEMPO NELLA TEORIA DELLA RELATIVITA’ RISTRETTA
Nella RR il tempo scorre diversamente per due osservatori inerziali in moto uno rispetto all’altro. Come già detto, proprio l’essenza stessa della Relatività impone che tale fenomeno sia reciproco e simmetrico.L’osservatore considerato in moto (ripetiamo che si tratta sempre di una scelta di pura convenzione) avrà sempre un tempo che scorre più lentamente e precisamente:
(2)
Dove Δt è l’intervallo di tempo misurato nel Sistema di Riferimento in cui è l’orologio è in quiete (tempo proprio) e Δt' è l’intervallo di tempo misurato nel Sistema di Riferimento in cui l’orologio si muove con velocità v. Dunque risulta che in OGNI Sistema di riferimento il tempo “scorre più lentamente” perché il fattore gamma per v < c è sempre maggiore di 1 e quindi Δt' > Δt (la durata è maggiore).
IL TEMPO IN RELATIVITA’ GENERALE
La RG nasce per ampliare a tutti gli osservatori (anche a quelli in moto accelerato e non solo rettilineo uniforme, come avviene in RR) l’invarianza delle leggi della Fisica.Facendo questo lo spaziotempo pseudoeuclideo della RR diviene una varietà di Riemann curva.Lo strumento matematico atto a studiare tale geometria (differenziale) è il calcolo differenziale assoluto di Levi-Civita e Ricci-Curbastro.Applicando tali strumenti Einstein (ed Hilbert che però gli riconobbe la primogenitura) giunge a scrivere le famose equazioni di campo che sono:
(3)
ove:
è il tensore di curvatura di Ricci, è un numero detto curvatura scalare, è il tensore metrico (che servirà poi, una volta sostituito nelle equazioni del moto a determinare la dinamica), è un termine chiamato “costante cosmologica” è che fu introdotto e poi tolto (ed oggi rimesso) nelle equazioni di campo da Einstein per ottenere un Universo in equilibrio, è il tensore energia-impulso, c la velocità della luce e G la costante di Newton, π è il rapporto tra la lunghezza della circonferenza e il diametro.
Le (3), dal punto di vista puramente matematico, rappresentano un Sistema di equazioni differenziali alle derivate parziali, non lineari, nelle componenti del Sistema metrico e in 4 variabili indipendenti (x,y,z,t).Poiché si può scegliere, senza perdere di generalità, il tensore metrico in modo che sia simmetrico, delle 16 componenti originali (4X4) ne restano solo 10 indipendenti-
Una volta trovate le funzioni incognite occorre risolvere le equazioni del moto che sono date dalle geodetiche della varietà di Riemann e cioè:
(4)
dove:
le x sono le coordinate del punto in moto e le quantità Γ sono legate proprio ai valori della metrica determinata dalle equazioni (3).
In RG si possono utilizzare diverse formule per calcolare le dilatazioni temporali.Esaminiamo diversi casi:
I) Per un osservatore in moto accelerato uniforme (che, grazie al Principio di equivalenza) è identico ad un campo gravitazionale localmente uniforme) si ha:
(5)
dove g è l’accelerazione (costante), h è la distanza tra un osservatore accelerato (o in un campo gravitazionale equivalente) e un osservatore in quiete (o in assenza di campo gravitazionale), c la velocità della luce.Quindi per un osservatore in moto accelerato (o in un campo gravitazionale) il tempo rallenta mentre, viceversa, per un osservatore in quiete (o in assenza di campo gravitazionale), il tempo accelera.
II) Nel caso invece gravitazionale di una massa m non rotante e di raggio r, utilizzando la metrica di Schwarzchild, si ha:
(6)
dove t’ è il tempo misurato all’interno del campo gravitazionale (“tempo proprio”), t è il tempo misurato all’esterno del campo gravitazionale, r la distanza dal centro di massa, m la massa che genera il campo gravitazionale, c la velocità della luce nel vuoto e G la costante di gravità.
La (6) sviluppata al primo ordine dà:
(7)
dove è il cosiddetto raggio di Schwarzchild
Nel caso della (7) la formula non è “invertibile” tra i due osservatori, interno ed esterno al campo gravitazionale, come è invece la (2).
Naturalmente anche le lunghezze sono contratte sia in RR che in RG e precisamente valgono le:
(8a)
(8b)
CONSIDERAZIONI GENERALE SULLA DILATAZIONE TEMPORALEE SULLA CONTRAZIONE SPAZIALE
Occorre soffermarsi su un altro punto della questione; la dilatazione temporale in RR è , in un certo senso, meno intuitiva da capire di quella in RG. Infatti, in RR la contrazione ha natura sostanzialmente cinematica, mentre in RG si tratta di una vera e propria deformazione geometrica dello spaziotempo. Dunque si tende a capire più facilmente il fatto che le masse contraggano lo spazio e dilatino il tempo proprio perché è la struttura geometrica stessa che subisce deformazioni cosa che non è altrettanto evidente in RR.
I VIAGGI NEL TEMPO
I viaggi nel tempo sono un tema molto di frontiera della fisica contemporanea e –possiamo dirlo-sdoganati da poco grazie all’interesse di fisici molto influenti come Stephen Hawking, Kip Thorne, Paul Davies,Roger Penrose (per citare i più rilevanti) anche se un esempio matematico completo fu scoperto nel 1949 dal logico Kurt Gödel .Tale possibilità deriva proprio dal fatto che grazie alle formule precedenti la durata temporale degli osservatori in moto e sottoposti alla gravità sono differenti da chi non le sperimenta.La RR permette viaggi nel futuro (tralasciamo le possibilità teoriche di comunicare con i tachioni) mentre la RG permette viaggi nel passato e nel futuro (nel caso di loopspazio–temporale in cui però si può tornare indietro nel tempo fin solo al momento della creazione della macchina oppure al momento della creazione naturale del loop; questo, curiosamente, segna anche una differenza rilevante tra la possibilità di accedere ad un futuro virtualmente illimitato ed un passato invece limitato).I viaggi nel tempo dunque sono teoricamente possibili, ma restano da esaminare due aspetti di essi; il primo è la generazione di paradossi quando si ammette la possibilità di tornare/comunicare col passato e la seconda è la fattibilità tecnologica di questi viaggi. La problematica tecnica è solo una questione di tempo e risorse mentre quella dei paradossi è particolarmente complessa. Il paradosso principale che sorge è chiamato “paradosso del nonno”.Un crononauta torna nel passato e uccide suo nonno.Ma se lo uccide non può essere nato e neppure tornato ad ucciderlo.Spiegazioni proposte sono principalmente due.La prima fa ricorso alla MQ e specificatamente alla Interpretazione a Molti Mondi di Hugh Everett III; quando il viaggiatore del tempo uccide il nonno l’universo si separa in due storie: in una il nonno è effettivamente ucciso e nell’altra no.Dunque il viaggiatore si troverà nel secondo universo e non ci saranno contraddizioni logiche.La seconda spiegazione è il principio di autoconsistenza di Novikov; il crononauta torna nel passato tenta di uccidere il nonno, ma un passante si frappone e rimane ucciso al posto suo.Il “nipote” ricorda che il nonno gli narrò questa esperienza e come un passante gli abbia involontariamente salvato la vita.
CONCLUSIONI
Il tempo forse ancor più dello spazio ha sicuramente un fascino particolare per l’Uomo; la Relatività ci ha mostrato che esso non è immutabile, ma che anzi esso può essere alterato utilizzando la velocità, l’accelerazione o la gravità cioè grandezze fisiche ben note. La logica e la Meccanica Quantistica ci offrono anche delle possibili soluzioni ai paradossi che inevitabilmente si generano in queste situazioni. La tecnologia in un lontano futuro forse potrà costruire macchine che realizzino questo antico sogno dell’Uomo: il controllo del tempo.
BIBLIOGRAFIA
Davies P., Come costruire una macchina del tempo, Mondadori, Milano. 2003.
Dorato M., Che cos’è il tempo? Einstein, Gödel e l’esperienza comune, Carocci editore, Roma, 2013.
Haidegger M., Essere e Tempo, Longanesi, Milano, 2005.
Hawking S., Penrose R., La natura dello Spazio e del Tempo.Come capire l’incomprensibile., Biblioteca Scientifica Sansoni, Milano, 1996.
Orilia F., Filosofia del tempo.Il dibattito contemporaneo, Carocci editore, Roma, 2012.
Thorne K., Buchi neri e salti temporali.L’eredità di Einstein, Castelvecchi, Roma, 2013.
Vatinno G., Il Nulla e il Tutto.Le meraviglie del possibile, Armando Editore, Roma, 2012.
Vatinno G., Storia naturale del Tempo.L’Effetto Einstein e la Fisica del futuro, Armando Editore, Roma, 2014.
Questo è vero per le equazioni differenziali ordinarie della dinamica newtoniana (corredate di condizioni iniziali), ma anche per le equazione alle derivate parziali (corredate di condizioni al contorno) della conduzione del calore e delle onde, che coinvolgono contemporaneamente le variabili spaziali e temporali.
In realtà il tempo c’è ma è “nascosto”; infatti, il funzionale d’onda non contiene esplicitamente il tempo in una geometria dello spaziotempo “congelata”, ma il tempo stesso compare appena ci si chiede quale sia la probabilità di trovare un’altra geometria a partire da quella iniziale.
Risolvendo le equazioni di campo di Einstein per un sistema fisico rappresentato da un fluido perfetto rotante con una velocità costante Gödel trovò una particolare metrica che genera delle strutture chiamate CTC (Closed Timelike Curve) che permettono di raggiungere zone del passato semplicemente spostandosi su traiettorie spaziali.
E' noto che una calamita ha due poli magnetici: il nord e il sud; è altrettanto noto che spezzando una calamita non si possono creare due poli separati, ma si riottiene sempre una coppia nord-sud. Questo comportamento è fondamentalmente asimmetrico rispetto all'esistenza di due cariche elettriche, positiva e negativa, che esistono naturalmente separate.Questo comporta che le equazioni di Maxwell che descrivono l'elettromagnetismo siano asimmetriche perché mancanti della parte relativa alla "carica magnetica" o, appunto, monopolo magnetico.Ora, dopo la scoperta, queste stesse equazioni potranno cambiare considerando anche la controparte magnetica e diverranno estremamente simmetriche (cfr, ad esempio,http://www.vialattea.net/esperti/php/risposta.php?num=2231) prevedendo anche l'esistenza di "correnti magnetiche", a cui è già stato dato il nome di "magnetricità" in analogia con l'elettricità.; dal punto di vista grafico le linee di forza di Faraday per il campo magnetico ora possono pure intendersi aperte e non più chiuse.
Il fisico inglese e premio Nobel per la Fisica nel 1933, Paul Dirac li aveva predetti (cercando di spiegare la quantizzazione della carica elettrica) nel maggio del 1931 (lo stesso anno in cui ipotizzò l'esistenza -poi confermata-dell'antielettrone o positrone) riprendendoli poi in un lavoro del 1948: ora su Nature l'annuncio (cfr.http://www.nature.com/nature/journal/v505/n7485/full/nature12954.html) da parte del professor D. S. Hall (Amhrest College, Usa) e del ricercatore M. Möttönen (Università di Aalto, Finlandia), sulla scorta di un precedente lavoro pubblicato su Physical Review Letters del 2009 di Ville Pietilä e Mikko Möttönen del Politecnico di Helsinki,Finlandia (cfr http://prl.aps.org/abstract/PRL/v103/i3/e030401); i monopoli magnetici possono esistere e sono stati creati in un esperimento realizzato a livello internazionale e coordinato dall' Amhrest College nel Massachusetts, negli Usa.L'esperimento ha utilizzato un campo magnetico esterno per orientare gli spin di un gas di circa un milione di atomi di rubidio (bosoni a spin intero) prossimi allo zero assoluto che si trovano in un particolare stato della materia chiamato "condensato di Bose-Einstein" (per cui sono quantisticamente indistinguibili). In pratica non si è osservato direttamente un monopolo, ma i suoi effetti sulle particelle circostanti, cioè elettroni, in termini di creazione di linee di flusso magnetico in forma di "vortice" orientato (il che avviene proprio in presenza di un monopolo magnetico).L'esistenza dei monopoli permette -come detto-di spiegare anche un mistero insoluto della fisica fondamentale: la quantizzazione della carica elettrica (cioè in Natura una carica elettrica è sempre un multiplo della carica dell'elettrone). Infatti, Dirac propose una relazione tra la carica elettrica "e" e la carica magnetica "m": e.m = cnh/4π, ove c=velocità della luce, h=costante di Planck, π=3.1415… ed n è un numero intero.La "carica magnetica" è circa 70 volte più intensa della carica elettrica.
C'è da dire che i monopoli sono artificiali, nel senso che sono stati creati in laboratorio e già in passato c'erano stati tentativi in tal senso; basta ricordare il lavoro sugli "spin ice" (Titaniato di disprosio, Dy2Ti207) del professor Steven Bramwell dell'University College di Londra o sull'elio superfluido.Ma in questo esperimento l'evidenza è molto più chiara ed è supportata da simulazioni al computer che ne confermano la correttezza.
L'esistenza dei monopoli magnetici è prevista dalle teorie di Grande Unificazione (che uniscono la forza forte e quella elettro-debole) e dalla teoria delle Stringhe, una delle più serie candidate ad essere una Teoria del Tutto che unifica le quattro forze fondamentali della Natura e cioè la forza nucleare forte, quella nucleare debole (responsabile del decadimento beta), quella elettromagnetica e quella gravitazionale.Dirac è noto per la sua famosa equazione relativistica quantomeccanica dell'elettrone che è una generalizzazione di quella non relativistica di Schrödinger.Da notare che in Italia, presso i Laboratori del Gran Sasso, è attivo da anni l'esperimento Macro dell'INFN per individuare monopoli magnetici nei raggi cosmici, finora senza esito (http://www.lngs.infn.it/lngs_infn/index.htm?mainRecord=http://www.lngs.infn.it/lngs_infn/contents/lngs_it/public/educational/physics/experiments/past/macro/).
I monopoli magnetici "naturali", che sono molto pesanti, e si dovrebbero essere creati durante il Big Bang.Le ricadute tecnologiche sono possibili ed auspicabili principalmente nel settore dell'elettronica, ad esempio utilizzando i monopoli magnetici come memorie di massa atomiche.
(l'articolo è liberamente riproducibile citando la fonte:
www.giuseppevatinno.it)
INTRODUZIONE
La Rete Internet si sta dimostrando sempre di più ilvero elemento vincente (“King Maker”) delle competizioni elettorali moderne, tanto da far stravolgere il concetto stesso di “campagna elettorale”. A supporto di queste affermazioni possiamo –ad esempio- pensare alle campagne elettorali del Presidente UsaBarack Obama o, restando addirittura nello specifico italiano, di Beppe Grillo e del suo Movimento Cinque Stelle.
Dunque sempre più in futuro, se non altro per motivi puramente anagrafici, la Rete acquisterà un ruolo assolutamente determinante nelle competizioni elettorali; pertanto, in una visione generale, occorre preparare una strategia di fondo comunicativa su Internet considerando anche che il rapporto qualità/prezzo è ormai non solo paragonabile a tradizionali mezzi di informazione come la Tv o la stampa, ma che proprio l’elementobidirezionale e interattivo è fondamentale percreare quelle condizioni di partecipazione dell’elettore che sono determinanti perl’aggregazione sociale e politica. Dunque è del tutto evidente l’importanza dei cosiddetto social network e dei siti blog. Si noti come questi siano due modelli comunicativi di base differenti anche sesono possibili –ed auspicabili- “contaminazioni” tra i due. Il successo del M5S. ad esempio, è basato proprio sul “modello blog” mentre Obama si è basato sul “modello social network”. Si tratta di due modelli diversi che corrispondono aduna diversità di messaggio politico, più “interattivo” quello del presidente Usa più “chiuso” quello del leader del M5S.
In questa fase politica, caratterizzata da un alto tasso di “anti-politica”, occorre che i partiti si rinnovino completamente e per fare questo occorre puntare molto sulla Rete, utilizzando al meglio tutte le sue possibilità (ad esempio YOUTUBE è ormai considerata una sorta di “televisione mondiale” che raggiunge potenzialmente chiunque in tutto il globo ed a prezzi quasi nulli). La gente ha voglia di cose “fresche “ e “nuove”, cool, e che comunque spazzino via le tradizionali immagine dei partiti e delle vecchie liturgie.Ecco perché l’utilizzo di nuovi strumenti digitali come liquid feedback, che permettono di implementare un alto livello di democrazia, sono così ben accetti dagli elettori.
LIQUID FEEDBACK
Il programma libero liquid feedback (l.f.) è un software che permette l’implementazione pratica del concetto di “democrazia diretta” o “liquida” in quanto la sua principale caratteristica è quella di dare la possibilità a tutti i membri di un gruppo, organizzazione, partito politico di esprimere la propria opinione su una proposta –dopo una fase di dibattito temporalmente contingentata-, tramite il proprio voto, superando strutture gerarchiche e disparità informative (ed in questo venendo incontro a richieste ben espresse dall’attuale sensibilità dell’elettorato; “una persona un voto” è il motto del M5S). Il software permette inoltre di tenere uno archivio storico di tutte le attività precedenti in modo che ci si possa riconnettere ad esse molto rapidamente . Il sito ufficiale è: http://liquidfeedback.org/.
Il sistema di approvazione di una “proposta” è costituito in quattro fasi: “nuova”, “in discussione”, “congelata” (per il necessario periodo di riflessione) ed “in approvazione”, è mutuato da quello delle democrazie rappresentative parlamentari per l’iter legislativo con maggioranza relative, semplici assolute, quorum etc Un esempio di tali fasi è mostrato in http://dev.liquidfeedback.org/lf2/unit/show/1.html.
Nella foto il biogerontologo britannico Aubrey de Grey
In questo articolo, vogliamo occuparci di quello che fin dall’apparire della civiltà umana è stato considerato un sogno impossibile: ritardare l’invecchiamento.La Seconda legge della termodinamica implica che in un sistema isolato il disordine, cioè la funzione termodinamica che chiamiamo entropia, possa solo aumentare. Ebbene, questa inesorabile legge non riguarda solamente la materia inerte, ma bensì anche il regno biologico e gli esseri viventi. Le strutture biologiche invecchiano -e questa è una constatazione molto comune-, ma come si riesce in taluni casi a “fare ordine” localmente nei sistemi fisici, cioè a far diminuire l’entropia, si può ottenere altrettanto nei sistemi biologici ?
Fino a poco tempo fa non sono stati certo ottenuti molti progressi in tal senso, ma ultimamente ci sono novità interessanti.
Aubrey de Grey (1963 - ) si occupa di gerontologia presso la SENS ("Strategies for Engineered Negligible Senescence”) Foundation che ha come obiettivo quello di ridurre al minimo l’invecchiamento. Mel 1999 ha pubblicato The Mitochondrial Free Radical Theory of Aging e nel 2007 Ending Aging, due lavori che hanno, in qualche modo, dato il via ad un nuovo filone di ricerca; quello della medicina rigenerativa.La SENS è una strategia per riparare i tessuti e rinnovare il corpo umano; egli individua sette tipi di danneggiamenti molecolari e cellulari dovuti ai processi metabolici.
De Grey è nato a Londra ed ha studiato a Cambridge dove, nel 1985, si è laureato (prendendo divenendo Bachelor of Arts, BA) in Computer Science. Dopo alcune esperienze nel 1985 e 1986 nel campo dell’informatica conobbe sua moglie, una biologa che si occupava di studi sul moscerino della frutta; in seguito, de Grey ha lavorato dal 1992 al 2006 allo sviluppo software presso il Dipartimento di Genetica dell’ Università di Cambridge. Nel 2000 la pubblicazione del libro The Mitochondrial Free Radical Theory of Aginggli è valso un PhD dall’università di Cambridge. In questo libro egli illustra una teoria per cui i danni cumulativi al DNA mitocondriale sono una possibile causa dell’invecchiamento, ma non l’unica. De Grey ritiene che già ora siano disponibili le tecnologie scientifiche per combattere l’invecchiamento dovuto agli effetti collaterali del metabolismo. Il Progetto SENS a cui sta lavorando dal 2005 serve a prevenire l’invecchiamento sia fisico (aspetto quantitativo) che cognitivo (aspetto qualitativo). Nel 2009 ha fondato la SENS Foundation, in California Usa. Fino al 2009 i progetti della S.F. sono stati finanziati dalla Methuselah Foundation cofondata da de Grey e che ha istituito il Methuselah Mouse Prize che ha raggiunto vari milioni di dollari e che premia i nuovi record nel campo di ricerca della SENS sui topi.
La rivista Tecnhology Review del MIT ha lanciato, qualche anno fa, una sfida per dimostrare che le teorie di de Grey non erano esatte, ma alla fine nessuno scienziato è riuscito a dimostrare che non lo fossero.
SENS è l’acronimo di “Strategies for Engineered Negligible Senescence” che può essere tradotto come “Strategie per l’ Ingegnerizzazione di Invecchiamento Trascurabile” e possono anche essere definite come un insieme integrato di tecniche mediche per restaurare la giovinezza molecolare dei tessuti e degli organi invecchiati.Quindi esse implicano l’applicazione della “medicina rigenerativa” al problema dell’invecchiamento.Le SENS cercano rimuovere i danni accumulatisi con il progredire dell’età, tramite varie tecniche tra cui le cellule staminali e l’ingegneria dei tessuti.
Attualmente, SENS, comprende sette principali tipi di terapie verso le sette maggiori categorie di danneggiamento da invecchiamento. Queste terapie sono piuttosto una descrizione delle SENS e non una definizione e che con il progredire delle conoscenze scientifiche possono cambiare e per questo si utilizza anche il termine di “biotecnologie per il ringiovanimento” per designarle. Sette campi applicativi sono:
1) Le mutazioni di DNA
2) Le mutazioni mitocondriali (Alzheimer)
3) Gli aggregati intercellulari (Alzheimer)
4) Gli aggregati extracellulari
5) La perdita di cellule, neuroni (Parkinson)
6) La senescenza cellulare (Diabete di tipo I)
7) Il cross link extra-cellulare.
In tre di questi campi si è già da tempo alla fase dei test clinici sui topi.Infatti, si sta già sperimentando la sostituzione delle cellule danneggiate con le staminali per alcune malattie come il Parkinson.Poi si stanno sperimentando vaccini per contrastare i depositi di amiloide – una della cause fisiche responsabili dell’ Alzheimer (l’altra è la proteina tau) - e poi ci sono esperimenti su proteine che garantiscono l’elasticità dei tessuti. Naturalmente, i costi stimati sono molto alti: 100 milioni di dollari all’anno per dieci anni per gli esperimenti sulle cavie, mentre quelli sugli uomini costerebbero assai di più, occorreranno cifre dell’ordine dei miliardi di dollari con un 50% di possibilità di raggiungere un obiettivo assai ambizioso: il prolungamento della vita a centinaia di anni. Tuttavia questi soldi risulterebbero ben spesi se si pensa a quanto costa a livello mondiale il welfare degli anziani e ci sarebbe poi comunque un ritorno in termini di occupazione assai più prolungata e produttiva anche se occorrerebbe studiare le misure per combattere la sovrappopolazione e la limitazione delle risorse naturali. Lo sviluppo della medicina rigenerativa è l’obiettivo di de Grey, ma è solo l’inizio; poi si deve passare anche ad una medicina preventiva in tutti i campi indicati. Un altro campo a cui prestare attenzione è il rapporto con le grandi aziende farmaceutiche che dovrebbero convincersi a riconvertirsi dalla medicina curativa a quella anche preventiva (anche se già ci sono casi di successo, da questo punto di vista, come le statine) e rigenerativa.
Bibliografia
Vatinno G., Il Transumanesimo. Una nuova filosofia per l’Uomo del XXI secolo, Armando editore, Roma, 2010.
INTRODUZIONE
Riprendo il titolo di un famoso libro del fisico americano Freeman J. Dyson (n. 1923), “Infinito in ogni direzione” , per sintetizzare efficacemente la conclusione, su basi cosmologiche , topologiche e logiche (evitare la regressio ad infinitum) di questo lavoro e cioè che l’ Universonello spazio e nel tempo (inteso nella sua dimensione generalizzata includente un vuoto quantico pre –esistente al Big – Bang), non può che essere infinito.
LO ZERO IN MATEMATICA
Il “nulla” in matematica è rappresentato formalmente dal numero “zero”. Questo simbolo è comunque “speciale” e pur facendo parte dell’insieme dei numeri detti “Naturali”, cioè della sequenza ( …,-N…-2, -1, 0, 1, 2,…N…) rappresenta qualcosa di diverso rispetto agli altri, rappresenta infatti l’ “assenza” del numero stesso . La storia della matematica, analizzando reperti e documenti antichissimi, ci ha portato a ritenere che lo zero non sia stato incluso nei primi sistemi di numerazione. Infatti, il primo sistema di numerazione accertato, quello sumero di circa 5.000 anni fa, inizialmente non aveva lo zero ed era quindi di tipo “non posizionale”; solo successivamente, fu introdotto lo zero per facilitare i conti e semplificare la scrittura di numeri grandi passando ad un “sistema posizionale” (come quello modrnamente utilizzato) in cui il valore di tale numero dipende, appunto, dalla posizione che occupa nella cifra stessa potendo rappresentare, ad esempio nel sistema decimale, in una cifra composta da tre numeri, le “centinaia”, le “decine” e le “unità”.
Per capire questo concetto consideriamo, ad esempio, la cifra “404”.
Indicando con il simbolo “^” l’operazione di elevazione a potenza, possiamo scrivere, facendone uno sviluppo in potenze della base 10:
404 = 4X10^2 + 0X10^1 + 4^10^0 = 400 + 0 + 4
che è diverso da
44 = 4X10^1 + 4X10^0 = 40 + 4
Se non utilizzassimo lo zero-e quindi il sistema posizionale-,“404” e “44” sarebbero lo stesso numero.
I Sumeri utilizzavano sia la “base 10” che la “base 60” per esprimere le cifre (una traccia di questo è rimasta attualmente nel nostro conteggio dei 12 mesi e dei 360 gradi di un angolo giro).
Contrariamente ai Sumeri, i Greci ed i Romani non utilizzavano lozero e avevano sistemi non posizionali (oltretutto i numeri venivano indicati da combinazioni delle lettere dell’alfabeto) in cui rappresentare numeri grandi e fare i calcoli era difficilissimo.
Il sistema posizionale fu introdotto inEuropa, importato dal modello arabo, solo da Leonardo Pisano (1170 – 1240) meglio conosciuto come Leonardo Fibonacci, nel XII secolo.
L’INFINITO IN MATEMATICA
L’infinito, indicato con il simbolo ∞, ha avuto una storia completamente diversa e pur rappresentando, in un certo senso, l’“altra faccia della medaglia” nel suo rapporto diadico con lo zero , è stato a lungo osteggiato dai matematici che erano molto perplessi sul suo utilizzo, date le particolari proprietà completamente differenti rispetto agli altri “numeri”.
I greci se ne tennero, tranne rare eccezioni, sempre a distanza e lo bandirono, per quanto poterono, dai loro ragionamenti geometrici .
Aristotele (ca. 383 – 322 a. C.) ed Euclide (323 – 285 a.C.), ad esempio, ammettevono che esistesse un “infinito potenziale”, ma che non potesse esistere un “infinito attuale”.Archimede (287 – 212 a.C.), utilizza il concetto di infinito quando con il procedimento detto di esaustione calcola il valore di π, cioè il rapporto tra circonferenza e diametro, approssimando il cerchio con poligoni inscritti e circoscritti di infiniti lati, ma mai utilizza esplicitamente il termine “infinito”.
Per ritrovarlo, insieme agli “infinitesimi”, dobbiamo attendere la nascita del calcolo differenziale e integrale di Gottfried Leinbitz (1646 – 1716) e Newton (1642 -1727), nel XVII secolo; tuttavia, per dare formale cittadinanza nell’ambito della matematica rigorosa occorrerà il concetto di “limite” di Karl Weierstrass (1815 – 1897) e Augustin L. Cauchy (1789 – 1857) nel XIX secolo, mentre gli infinitesimi troveranno appartenenza alla rispettabilità matematica solo con l’“analisi non standard” di Abraham Robinson (1918 – 1974) negli anni ’60 del XX secolo che leggittimò, se così si può dire, l’utilizzo alquanto disinvolto che ne avevano fatto Newton e Leibnitz.
In ogni caso, nel XIX e XX secolo, l’infinito, nella sua forma in “atto” e non solo “potenziale” dei greci,è accettato nella matematica ed anzi si cerca di indagarne le proprietà. Ad esempio, tutti gli infiniti sono uguali? Già si sapeva che c’erano dei problemi con questi concetti comparativi tra classi infinite e sorgevano spesso paradossi inquesto campo.
Già il filosofo Giovanni Duns Scoto (1265 – 1308), nel XIII secolo ed anche Galileo Galilei (1564 -1642) nel XVII, avevano capito che quando si ha a che fare con l’infinito il “tutto” può esser euguale alla “parte”; ad esempio, l’insieme dei numeri naturali (il “tutto”) può essere messo incorrispondenza biunivoca con i quadrati dei numeri naturali (una “parte”) ed entrambi sono infiniti.
Percapire cosa succedeva ci vollero però i lavori di Bernard Bolzano (1741 – 1848), Julius Dedekind (1831 -1916) e soprattutto Georg Cantor (1845 – 1918). Quest’ultimo dimostrò che non tutti gli infiniti sono uguali ed anzi ognuno di essi ha una sua dimensione, detta “cardinalità” (tali numeri “cardinali”, insieme agli “ordinali”, sono chiamati transfiniti), che può esseredifferente e che indicò con la prima lettera dell’alfabeto ebraico, l’Aleph. Ad esempio i numeri naturali ed i razionali (rapporti tra naturali) sono della stessagrandezza di infinito indicata con il simbolo ,Aleph0, mentre i numeri reali, anch’essi infiniti, hanno una “dimensione” maggiore (e questo è intuitivo visto che contengono i Naturali) e la loro cardinalitàè,Aleph1. Cantor poi giunse ad una ipotesi, detta “ipotesi del continuo”, in cui cerca di dimostrare che tra Aleph0, la cardinalità dei numeri Interi e Razionali e 2^Aleph0, cioè la cardinalità dei numeri Reali, non c’erano altrecardinalità di infinito.
In formula l’ ipotesi del continuo è:
Oppure, l’ “ipotesi generalizzata” del continuo:
Tuttavia, nonostante i suoi sforzi, non vi riuscì mai e questo fu spiegato solo dal logico Kurt Gödel (1906 – 1978), neglianni ’30 del XX secolo e successivamente da Paul K
Il fenomeno dell’ “entanglement quantistico” (in seguito e.q. o anche e.) implica, di fatto, la non esistenza dei concetti di separazione spazio – temporale. Riportiamo brevemente (avendone già trattato in altri articoli e saggi) il concetto di “entanglement”, che in inglese significa “connesso” o “attorcigliato”. L’ e. è un fenomeno che si mostra unicamente a livello quantistico, cioè non ha un’ analogo nella fisica classica. In pratica esso deriva proprio dal concetto di “misura” in meccanica quantistica; infatti, a questi livelli la materia e l’energia (che sono legate dalla nota equivalenza relativistica) hanno comportamenti sia ondulatori che corpuscolari, come del resto è stato rivelato da famosi esperimenti, come quello della “doppia fenditura”. In pratica, una elettrone, mostra a volte di comportarsi come un’ onda (dà per esempio luogo a fenomeni ondulatori tipici, come quello dell’interferenza) ed altre volte come un corpuscolo (ad esempio nell’effetto fotoelettrico); questo è a sua volta un portato del Principio di indeterminazione di Heisemberg che è alla base di tutto il mondo quantistico. Questo bizzarro comportamento fu descritto in un esperimento ideale dal trioAlbert Einstein (1879 -1955), Boris Podolsky (1896 -1966) eNathan Rosen (1909 – 1995) da cui il nome di “paradosso EPR” (presentato nel 1935). In parole povere tale paradosso ci dice che due particelle che siano state una volta a contatto tra loro poi rimangono per sempre “unite” eche se modifichiamo lo stato quantico di una, ad esempio la polarizzazione dello spin, immediatamente l’altra, pur essendo a miliardi di anni luce ne risente dell’effetto e si adegua.Quando tale paradosso uscì provocò aspri dibattiti in seno alla comunità scientifica e soprattutto tra Einstein e Niels Bohr (1885 -1962); il primo pensava che poiché potevano esistere tal assurdità la meccanica quantistica fosse incompleta e magari esistessero delle “variabili nascoste” che dessero conto di ciò togliendo l’intrinseca dimensione probabilistica che regnava nel mondo dei quanti; ilsecondo pensava invece che il paradosso fosse vero e che rispecchiasse una strutturale impredicibilità del mondo quantico. C’è da dire che la scienza dimostrò molti anno dopo con il lavoro teorico di John Stewart Bell (1928 – 1990) e poi quello sperimentale nel 1982 di Alain Aspect (1947 -) che Bohr aveva ragione ed Einstein torto. Il Paradosso EPR ha una portata filosofica enorme perché ci mostra che il mondo inrealtà è molto diverso da come ci appare a noi a livello macroscopico; in pratica tutte le particelle risultano essere interconnesse, ma la cosa sconvolgente è che tale connessione è immediata al di là dello spazio e del tempo e che quindi questi due concetti a livello elementare non esistono nel modo in cui li intendiamo noi.
Dunque la m.q. è una teoria intrinsecamente non locale e l’ipotesi delle variabili nascoste è falsa (Teorema di Bell, 1964). Il portato principale di questa situazione è che la stessa “Realtà” sembra non esistere fin quando qualcuno non la osserva ed allora ecco che tramite il collasso della funzione d’onda la materia è costretta a scegliere un determinato stato quantico (energia, spin etc) e quindi si “concretizza” una forma stabile.Fin quando la materia o l’energia non è osservata essa esiste inun ostato indeterminato e senza forma alcuna.
Nell’esperimento della doppia fenditura c’è uno schermo con due fessure: unfotone emesso può passare solo d a una delle due, ma fin quando non losi osserva esso, interagendo con sé stesso,risulta essere passato in entrambe; quando poi lo si osserva è costretto a “scegliere” una delle due fessure. A questo punto il famoso fisico [1] John Archibald Wheeler (1911 -2008) ha proposto il concetto di “universo partecipatorio” perché, comevedremo, è proprio l’osservatore, in un certo senso, a “costruire” la Realtà.
Riprendiamo il nostro esperimento con il fotone [2] e lo schermo a doppia fenditura; seponiamo un rivelatore di fotoni dietro una delle due fenditure e d ad una certa distanza dallo schermo (tale cioè da assicurarci che il fotone sia passato da entrambi le fenditure, nella sua forma d’onda) ecco che noi possiamo agire a posteriori sul comportamento del fotone stesso dopo che è passato dalle due fenditure. Infatti, osservandolo dietro ad una delle due fenditure automaticamente si esclude l’altra, ma il fotone, come onda era già passato da entrambi ed allora che cosa è successo?
Da unpunto di vista puramente logico possiamo dire che il fotone, come onda, risulta aver “ritirato” il proprio “fronte d’onda” come semai fosse passato contemporaneamente dalle due fenditure, invece siamo certi che vi sia passato perché dietro loschermo si era formata la caratteristica interferenza tipica delle onde. Allora quale misterioso meccanismo ha agito addirittura nel passato per cambiare quello che era già avvenuto? In realtà il paradosso può essere risolto solo pensando che i nostri concetti di spazioe di tempo non valgano più, come già detto, a livello quantistico; infatti se il tempo e lo spazio non esistono ecco che allora il fotone non “tornerà sulle sue decisioni”, ma, molto semplicemente, non vi erano decisioni dprendere perché iltempo non era passato, ad un certo livello di Realtà, ma tutto avveniva contemporaneamente!
Wheeler spiega bene le cose con un caso concreto o esperimento a “scelta ritardata” (proposto nel 1978); proprio della Relatività Generale di Einstein sappianoche nello spazio esistono le cosiddette “lenti gravitazionali” che sono galassie che hanno la possibilità di dividere in due la luce di una stella, ad esempio un lontano Quasar, grazie proprio alla loro forza gravitazionale. Quindi se c’è un Quasar a 10 miliardi di anni luce ed una lente gravitazionale ed ecco che un fotone proveniente dal Quasar incontra la lente e si divide in due (analogo dell’esperimento della doppia fenditura). Tuttavia, quando giunge dopo ben 8 miliardi di anni sulla terrae noi lo osserviamo lo indiciamo a “scegliere” quale delle due strade cosmiche (che portano alla doppia immagine del Quasar) ha seguito e quindi in un certo senso con la sola osservazione modifichiamo un passato di 8 miliardi di anni!
E’ chiaro dunque che fenomeni come questi ci dicono che l’intero universo è veramente una creazione degli osservatori che lo osservano e non esiste di per sé oggettivamente nel senso noto della meccanica newtoniana. Queste conclusioni rivoluzionano completamente non solo la visione che abbiamodella Realtà, nei concetti basilari di spazio e tempo, ma anche a livello filosofico e l’universo ci pare sempre più una struttura interconnessa in cui quello che accade non esiste oggettivamente una volta per tutte, ma piuttosto fa parte di un quadro continuamente cangiante dipinti dagli stessi osservatori. Resta da definire bene il concetto di “osservatore” e quindi di “osservazione”. Cos’ èun osservatore? Quando lo posso definire tale equindi capaci di alterare addirittura il passato? La coscienza gioca un ruolo in tutto questo o l’ “osservatore” potrebbe anche essere anche un meccanismo automatico ed inanimato? Come si vede con queste domande siamo giunti al livello più profondo di una sofisticata riflessione su cosa sia quella Realtà che noi diamo giornalmente per scontata.
Bibliografia
Aczel A. D. Entanglement. Il più grande mistero della fisica Raffaello Cortina Editore, Milano 2004.
Albert Einstein, Podolsky, Rosen, (1935) "Can Quantum Mechanical Description of Physical Reality Be Considered Complete?" Phys. Rev. 47: 777.
Bell J. S. (1964) “On the Einstein-Podolsky-Rosen Paradox”, in “Physics”, I, pp. 195 -200.
Bell John S., “Dicibile e indicibile” in meccanica quantistica”, Adelphi Milano 2010.
Ghirardi G.C., Un'occhiata alle carte di Dio, Il Saggiatore, Milano 2003.
Wheeler J. A., "The 'Past' and the 'Delayed-Choice' Double-Slit Experiment", in Mathematical Foundations of Quantum Theory, edited by A.R. Marlow.
[1] Wheeler ha coniato il termine “buco nero” ed è stato autore della famosa equazione di Wheel – DeWitt che è la funzione d’onda quantistica per l’intero universo. In formula: dove H è l’operatore hamiltoniano (energia) quantizzato della Relatività generale applicato alla funzione d’onda quantistica.
[2] Questo esperimento è alla base di uno effettivamente realizzato da Alain Aspect nel 2007.
Nella fotografia una applicazione della realtà aumentata mostra l’immagine del personaggio televisivo Zorro che si anima sullo sfondo di un ambiente reale
Con il termine “realtà aumentata (“augmented reality”), in seguito anche r.a., intendiamo una tecnologia che permette di “aggiungere” oggetti ed informazioni virtuali all’ambiente naturale creando, di fatto, una realtà mista; in pratica, nella tassonomia cibernetica, la realtà aumentata è una forma particolare del concetto più generale di “realtà virtuale”; la realtà aumentata risulta allora composta dal mondo reale più la realtà virtuale.
Il termine fu coniato dal prof. Thomas Caudell, allora capo progettazione sistemi virtuali alla Boeing ed attualmente (2009) professore all’Università del Nuovo Messico.
Un esempio banale, ma utile a far capire, di r.a. è quello dei dati sportivi che sono sovrapposti alle immagini di una partita.
Un esempio più avanzato, invece, è quello di applicazioni di ultimissima generazione degli “smart phone” (cioè dei cosiddetti “telefonini intelligenti”, come il 3GS Iphone di Apple, Android G1 di Googlephone o il Nokia N95) che permettono di avere informazioni in tempo reale sull’ambiente esterno come monumenti, negozi, percorsi, tariffe etc etc.
Di notevole interesse nell’ambito della sempre più spinta integrazione internet è quello di Wikitude, un programma di realtà aumentata che integra i dati di Wikipedia, l’enciclopedia on – line, con la realtà.
Quindi, ad esempio, puntando la videocamera del nostro Iphone verso il Colosseo, siamo in grado di leggerne, in sovraimpressione, tutta la storia e, magari, facendo partire un’animazione, vedere ricostruita una battaglia tra gladiatori ascoltando le urla degli spettatori, mentre scorre anche l’elenco delle fermate della metropolitana più vicine.
Gli esempi di applicazione sono innumerevoli; alcuni più pratici ed utili, altri dedicati al divertimento.
Già commercialmente avviati sono, ad esempi, i programmi Cad di architettura che servono a simulare nuovi ambienti, ancor prima di costruirli nella realtà.
Pensate a come sarebbe utile se puntando la videocamera del cellulare sul nostro portafoglio potessimo leggere in automatico il codice fiscale, l’ultima dichiarazione dei redditi,ed altri dati per la dichiarazione fiscale;oppure, invece, puntando la videocamera su un cartellone alla stazione o all’aeroporto potessimo leggere in automatico tutti i dati che ci interessano sul treno o sull’aereo che dobbiamo prendere e così via.
Anche i farmaci potrebbero “trasmettere” informazioni sulla loro composizione e scadenza e , magari, dialogare con un chip che portiamo sempre con noi riguardo ai nostri dati clinici.
In campo militare poi, la r.a. è già una realtà di tutti i giorni tanto che i piloti da caccia vedono scorrere sulla loro visiera una serie di dati sulla velocità, la quota, la rotta e sul bersaglio del loro volo;in campo medico si possono avere informazioni virtuali sui dati di un paziente, come le analisi, mentre si effettua una visita.
La base di questa nuova rivoluzione cibernetica che definiamo “realtà aumentata” è nel concetto conosciuto come a “Internet delle cose”, cioè la possibilità che i comuni oggetti di tutti i giorni, dalla radio, al tostapane, al frigorifero, all’automobile, al semaforo, alla Tv, all’orologio, siano in qualche modo “catalogate” con una etichetta internet che possa essere “letto” dallo smart phone o da altro terminale telematico portatile.
Tuttavia quelle che abbiamo raccontato sembrano più anticipazioni da fantascienza che applicazioni che ritroveremo nella vita di tutti i giorni, ma non è così.
Infatti, proprio da quest’anno, sono disponibile le prima applicazioni pratiche della realtà aumentata.
Un esempio significativo si tale possibilità è l’applicazione “Metro Paris Subway” disponibile per l’Iphone 3GS della Apple (per i modelli 3G la versione è “statica”, cioè consiste solo in un elenco e distanze) e che permette, puntando la videocamera su, ad esempio, un palazzo, di conoscere tutte le fermate metropolitane, di autobus e parcheggi di taxi delle vicinanze.
Per “conoscere” intendiamo la distanza ed anche la possibilità di avere la strada indicata direttamente sullo schermo dell’Iphone. Analoghe applicazioni stanno per essere disponibili per Londra e Tokio.
Per fare una esperienza diretta di r.a. vi invito a cliccare il sito:http://ge.ecomagination.com/smartgrid/?c_id=yahooaugreal#/augmented_reality
Dopo aver stampato un foglio guida ed aver attivato la telecamera ed il microfono del vostro computer potete interagire in r.a. con due impianti di fonti rinnovabili, eolico e solare.Per l’eolico soffiando sul microfono aumenterete la velocità di rotazione delle pale.
In questo caso, “l’Internet delle cose” è simulata da un software che individua dei punti fissi sul foglio e tramite tecniche di “rendering” e “tracciamento” implementa la r.a…
Un altro esempio è dato da questo filmato su YouTube: http://www.youtube.com/watch?v=QoZRHLmUKtM
Come si vede, inquadrando con l’Iphone un foglio con particolari simboli, si genera una realtà aumentata; nel caso particolare un cartone animato di un cane si “anima” quando è inquadrato un particolare simbolo oppure, inquadrando una mappa, vengono forniti dati utili ad interventi di salvataggio.
Questa possibilità costituirà la base di una nuova ed ulteriore rivoluzione digitale che promette di trasformare radicalmente il nostro mondo e la nostra vita compiendo un decisivo passo verso quella interconnessione globale di tutti i sistemi del mondo con i satellite nello spazio che va verso la direzione di una forte integrazione uomo – macchina di cui abbiamo parlato ormai tante volte e che è conosciuto con il nome di “Cyberworld” o “TeknoGaia” .
Un nuovo passo importante dell’evoluzione della specie umana e della nostra civiltà.Nota: questo articolo fa riferimento a dei siti web e a filmati su YouTube che, in futuro potrebbero non essere più disponibili
L’uomo è una corda tesa fra l’animale e il superuomo” Friedrich Nietzsche
di Giuseppe Vatinno
Membro del network dei transumanisti italiani
Giornalista
Fisico
Introduzione
L’evoluzione “naturale” (cioè il cambiamento del fenotipo, espressione del genotipo) dura sulla Terra da più di 4 miliardi di anni (per precisione da 4.4, cioè da quando cioè si è resa disponibile l’acqua) ed ha attraversato molte fasi; dagli elementi primordiali dovuti all’esplosione di una supernova, alla materia inorganica ed infine a quella organica, attraverso il processo darwiniano [1] della mutazione e della selezione naturale degli organismi più adatti alla sopravvivenza nell’ambiente.
Un ritmo forse lento, ma che possiede la caratteristica della inesorabilità dell’applicazione costante.La comparsa di Homo Sapiens sulla Terra, circa 200 milioni di anni fa, ha indubbiamente costituito un momento speciale dell’evoluzione; questa specie, a cui noi apparteniamo, ha infatti utilizzato l’intelligenza ed il linguaggio, per evolversi e divenire egemone (in un certo senso) sul pianeta.
Un’altra caratteristica da tenere ben presente è che Homo Sapiens, a differenza di tutte le altre specie può influenzare coscientemente l’ambiente che lo circonda e lo ospita; diciamo subito che lo ha già fatto circa 10.000 anni fa, quindi all’inizio del periodo chiamato neolitico, o della “pietra nuova”, quando ha inventato l’agricoltura e con ciò gli insediamenti urbani e la società; un importante evento critico: è stata poi la rivoluzione industriale nel periodo 1760 – 1880 ed iniziata con l’introduzione della macchina a vapore di Watt, nel 1765 (dopo alcuni prototipi precedenti).Preparata dallo spirito illumista e scientifico del settecento, l’industrializzazione ha cambiato significativamente l’ambiente terrestre: da un lato vi è stato uno sviluppo esponenziale delle invenzioni e del progresso tecnico – scientifico, dall’altro è intervenuta direttamente sul bios, ad esempio, sul clima e sul territorio, alterandoli.
Tuttavia, anche questo è un fenomeno “naturale”; ci dobbiamo, infatti, sempre aspettare che quando si altera una “fisiologia” (in questo caso dell’intero pianeta) ci siano anche effetti “tossicologici”. L’intelligenza di Homo Sapiens, è, o dovrebbe essere, quella di coniugare sviluppo e sostenibilità dello stesso, ma non intendo ora approfondire questo complesso tema. Quello che mi preme porre in evidenza è che l’evoluzione sta continuando sul pianeta Terra e che Homo Sapiens la influenza già direttamente e fortemente ed in futuro la potrebbe influenzare sempre di più.
Una piccola nota sul concetto di ciò che è “naturale” e ciò che non lo è.
Nella nostra società è invalso l’uso scorretto di pensare che vi sia da una parte la “natura” e da una parte l’“uomo” e che la prima sia sostanzialmente contrapposta al secondo, almeno per quanto riguarda l’azione nel suo complesso.
Tuttavia, così non è; infatti l’azione umana non è che il proseguimento di quella naturale.
Insomma, si tratta pur sempre della natura che continua ad agire potenziata finalmente da una volontà che ne guida l’evoluzione in senso ora che può essere finalistico perché guidato dall’elemento coscienziale.
Le macchine (altra espressione che dovremmo cominciare a non considerare più “artificiali”, ma, appunto, naturali nel senso sopraddetto), nate per aiutare l’uomo nei compiti lavorativi, hanno cominciato esse stesse ad evolversi (guidate dalla coscienza umana) adattandosi all’ “ambiente” secondo leggi sostanzialmente simili a quelle dell’evoluzione ancora chiamata “naturale”(e cioè macchine che “servono” bene allo scopo sono riprodotte, mentre i modelli non funzionali non sono richiesti e quindi vengono eliminati dalla produzione).
Stiamo forse andando verso un “superorganismo globale”, intuito dal grande paleontologo e gesuita Pierre Teilhard de Chardin (1881 -1955)?
Ci avviciniamo alla “singolarità tecnologica” preconizzata dai futurologi Vernor Vinge [2] (1945 -) e ribadita recentemente da Ray Kurzweil (1948-), dopo essere stata introdotta per la prima volta dal matematico Von Neumann?
E se sì quali ne sono gli elementi distintivi?
Lo sviluppo della infrastruttura di CyberGaia
Strumenti per cercare, vedersi, conoscere, parlare, rivedere, vendere, pagare, vivere
Per parlare di “salto evolutivo” occorre studiare analiticamente l’evoluzione di una struttura sociale e individuarne i punti di discontinuità in cui vi sono stati cambiamenti rilevanti nelle “proprietà” della struttura sociale stessa.
L’idea base è che stiamo dirigendoci, come detto, verso una “singolarità tecnologica”, cioè un “punto” dell’evoluzione tecno-biologica in cui si mostrerà, come epifenomeno, una sorta di super -intelligenza non biologica o bio-cibernetica, in grado di segnare un processo evolutivo di tipo discontinuo; questa è una possbile definizione di “singolarità tecnologica”.
Di tutti i cambiamenti possibili quelli che riguardano la comunicazione sono i più rilevanti; infatti, comunicare vuol dire aumentare le possibilità di conoscenza e costruire strutture più complesse e sofisticate. La nascita del linguaggio è stata senza dubbio una di questi momenti topici e particolari; come lo è stata la nascita della stampa, del telegrafo, delle onde radio, della tv ed infine di Internet.
Una rete comunicativa globale e bidirezionale (elemento fondamentale, non presente prima se non nel linguaggio comunicativo) mondiale è un forte presupposto teorico per affermare ciò.
Internet ha, dal 1990, e quindi in circa 20 anni, cambiato completamente il nostro mondo forse più della invenzione della stampa da parte di Gutenberg.
Ora la gente, le istituzioni, gli apparati produttivi sono interconnessi a livello mondiale. Questo ha liberato incredibili energie in termini diinformazione disponibile che è i carburante per produrre altra scienza e tecnologia evolutiva; insomma un circolo virtuoso che sembra auto accelerare “Legge dei ritorni accelerati” di Ray Kurzweil).
Se poi andiamo a studiare le nuove caratteristiche di Internet ci accorgiamo che alle prime funzionalità basiche costituite, ad esempio, dalla email, si sono aggiunte incredibili capacità nuove, come quella di inviare istantaneamente video e audio.
Come noto, alla iniziale Internet si associò sul finire degli anni ’80 dello scorso secolo, il World Wide Web, cioè la grande ragnatela mondiale.
Nel contempo il cosiddetto web 2.0 (15 miliardi di pagine nel 2009) ha sviluppato Google (pur essendo ancora attivi motori di ricerca come Yahoo), il super potente motore di ricerca dotato di mappe satellitari che di fatto hanno digitalizzato l’intero territorio mondiale, YouTube, per condividere i propri video mondialmente, Wikipedia la grande enciclopedia mondiale costruita con il contributo degli stessi utilizzatori, i blog, spazi apertiti di dibattiti, e, ultimamente, le cosiddette “reti sociali”, che uniscono fisicamente gli abitanti dell’intero globo, condividendone in tempo reale le azioni e gli spostamenti, le idee, le passioni e tutto il resto che può esser e pensato, Skype per telefonare a basso costo in tutto il mondo, Flickr per condividere le fotografie, eBay per le aste on – line e Paypal per i micropagamenti
Altra funzionalità fondamentale è poi “Second Life”, cioè il mondo di una realtà virtuale parallela a quella fisica in cui è ricreato dai programmatori un mondo basato su quello reale con tanto di abitanti (“avatar”) in cui tutti possono incarnarsi.
Insomma, sono i nostri occhi ci accorgiamo che il world wide web, la grande rete mondiale che unisce gli esseri umani, inventata al Cern nel 1988 da Lee, sta evolvendo, proprio come un organismo guidato delle regole dell’evoluzione biologica darwiniana o forse dovremmo dire lamarkiana, in quanto i “caratteri acquisiti” (come, ad esempio, una miglioria software, vengono trasmessi alla generazione successiva). All’evoluzione genetica si è affiancata quella “memetica” guidata dalle idee e non più, appunto, dai geni.
In altri articolo ho affrontato i nuovi aspetti della Rete; in questo voglio tracciare una breve storia di questa nuova funzionalità di CyberWorls, che sono le “reti sociali”.
I Social Network gli “organi” socializzanti della Rete
Il fenomeno dei “Social Network” (in seguito SN) è relativamente (anche per i tempi accelerati della rete) recente.
Il più noto, FaceBook, è del 2004, MySpace tra i primi, è del 2003; l’ultimo arrivato, Twitter, è del 2006.
Un SN è quindi uno strumento digitale che, installato su un computer o un cellulare, magari possiamo parlare, più in generale, di “smartphone” intendendo qualcosa a metà strada tra il computer tradizionale ed il cellulare, permettere di condividere i propri dati, le proprie informazioni con molte persone, definite tecnicamente “amici” o anche con “sconosciuti” che però permettono l’accesso pubblico a parte o alla totalità dei propri dati on line.
Come già accennato in precedenza i SN rappresentano una grande possibilità comunicativa globale, nella direzione della costituzione di un “GlobalBrain” o CyberGaia che permetta una connessione totale e globale.
Il fenomeno evolutivo di Internet incomincia ad interessare molto anche i sociologi e gli psicologi; il “nuovo essere” globale che caratteristiche avrà? Sarà una semplice “somma delle parti” (cioè gli “utenti”) o qualcosa di più, qualitativamente diverso, qualcosa che è più della “somma delle parti”? (come è probabile).
Ed ancora, l’emergere si una struttura di tipo olistico sarà seguita, come spesso avviene, dallo sviluppo di epifenomeni che nel nostro caso potrebbero addirittura riguardare la genesi di una “coscienza globale” , come dice la già citata teoria della singolarità tecnologica?
Interrogativi affascinanti che ci dispiegano intere praterie di possibilità.
Il concetto di Rete sociale
Utilizziamo, tecnicamente, il sostantivo “social network”, per le “reti sociali” digitali, cioè impiantate su internet.
Più in generale, i sociologi conoscono e studiano la struttura generale ed astratta di “reti di interconnessione sociale” RIC di cui i SN fanno parte, come sottogruppo.
Le reti di interconnessione sociale, le RIC, sono, ad esempio, i partiti, le religioni, i club. Il loro studio teorico ci dice che i membri di una RIC possono, in media, conoscere solo 150 persone del loro gruppo. Tale numero, in sociologia, prende il nome di “numero di Dunbar”. L’avvento dei SN sembra superare questo concetto limitativo e crea dinamiche incredibilmente accelerate di conoscenza e di interazione.Il dr Jacob Moreno è il fondatore della sociometria che si occupa di studiare le “metriche”, cioè le misure di queste entità sociali.
appendice breve storia dei Social Network
FACEBOOK (Inizialmente chiamato “The Facebook”)
Nasce nel 2004 grazie alla intuizione di Mark Zuckenberg, 19 anni allora, (Boca Raton, 1984) che vuole mettere in rete l’”annuario” degli studenti della sua università, Harvard.
Inizialmente si trattava solo di una fotografia e di un profilo, utile ad orientarsi nel mondo dell’università ma anche a ritrovare vecchi amici di scuola; subito dopo altre università si affiancano, poi le High School, poi le aziende ed infine i semplici utenti.
La raccolta pubblicitaria (unica forma sostanziale di finanziamento) sarà nel 2009 intorno ai 70 milioni di $.
TWITTER (dal verbo inglese “to tweet = cinguettare”)
E’ un SN a struttura di mcroblogging che fornisce pagine con messaggi di 140 caratteri al massimo e che possono essere aggiornate tramite SMS (da cui il limite),Email e messaggistica istantanea.
Twitter, in grande espansione, è stato creato dalla “Obvious Corporation” di San Francisco, da Jack Dorsey (Saint Louis, Missouri 1976) e da EvanWilliams e Biz Store.
MYSPACE
E’ una comunità virtuale creata nel 2003 da Tom Anderson (1970) e Chris DeWolfe (1966).
Era proprietà della Intermix Media e nel 2005 è stata acquistata per 580 milioni di $ dalla news Corporation di Rupert Murdoch.
E’ particolarmente utilizzata dai gruppi musucali; il suo fatturato per il 2009 è previsto in 25 milioni di $ (fonte: eMarketer).
FRIENDESTER
Fondato da Jonathan Abrams nel 2002 a Mount View, California, con lancio nel 2003,Ha 90 milioni di utilizzatori, specie in Asia (attuale sede aSydnesy, Australia).
E’ stato fondato nel 2002 da Reid Hoffman (1967); ha nel luglio 2009 43 milioni di utenti ed è più specifico per le offerte di lavoro
ORKUT
Fondato nel 2004 da Orkut Buyukkokten, impiegato di Google si è sviluppato particolarmente in Brasile ed India e nei Paesi del terzo mondo.
Conclusioni
Siamo, con grande probabilità, in una fase molto particolare dello sviluppo dell’umanità; siamo infatti entrati in quell’era che è stata definita “antropocene”, cioè “l’età dell’Uomo”.Lo sviluppo esponenziale delle conoscenze scientifiche e delle loro applicazioni tecnologiche ha rivoluzionato e sta sempre più rivoluzionando la vita della razza umana. L’”antrophos” segna un punto di indubbia “discontinuità” evolutiva; dal “caso” si passa, per giocare con le parole di un famoso saggio di Jaques Monod, alla “necessità” a sua volta dettata dalla intelligenza adattativa della specie umana.
Il fenomeno è tipicamente non lineare e cioè l’instabilità evolutiva che si potrebbe manifestare come “singolarità tecnologica” sarà generata, quando i tempi saranno propizi, da un “piccolo” cambiamento tecnologico che produrrà l’epifenomeno di una collettivizzazione generalizzata della conoscenza caratterizzato da nuove “proprietà emergenti”.
Internet e le telecomunicazioni mostrano uno dei fenomeni più evidenti, sotto gli occhi di tutti, ma non gli unici.
Tutti i progressi tecnico – scientifici mostrano una accelerazione non lineare.
I social network solo gli ultimi arrivati tra gli strumenti associati alla Rete, ma già ora si stanno dimostrando tra i più importanti (si pensi, ad esempio, all’utilizzo fattone durante la vincente campagna elettorale dal Presidente degli Stati Uniti, Barack Obama nel 2008).
L’evoluzione prenderà definitivamente una nuova strada e la “natura” questa volta “naturata” dalla ars tecnologica di Homo Faber diverrà sempre più cosciente di se stessa.
E questo procedimento, probabilmente, potrà continuare e raffinarsi se, insieme alle immense possibilità, riusciremo anche a gestire i pericolo ed i rischi che tale epocale trasformazione comporta.
E sarà allora che Homo Faber, discendente di un ominide insonne che in una notte di luna piena di milioni di anni fa, nella savana africana, volle sfidare le tenebre scendendo dai sicuri alberi, diverrà esso stesso “natura evolutiva” cosciente.
Noi, all’inizio del terzo millennio, ne siamo umili testimoni e pionieri.
Bibliografia
Dawkins Richard, Il gene egoista, Mondadori, Milano 1994
Dyson Freeman J. Turbare l’universo, Bollato Boringhieri, Torino 1999 (2 ed.)
Dyson Freeman J, Il Sole, il genoma e Internet, Bollati Boringhieri, Torino 2000
Dyson Freeman J. Infinito in ogni dimensione, Rizzoli 1989
Drexler K. Eric e Peterson C., Unbounding the Future: the nanotechnology Revolution, William Morrov and Company, Inc., New York 1991
Drexler K. Eric, Engines of creation. The coming era of nanotechnology, Anchor Books, Usa 1986
Kurzwell Ray The age of spiritual machines, Penguin Books, Usa 1999
Kurzwell Ray The age of intelligent machines, MIT Press, Cambridge Massachusetts, 1990
Kurzweil Ray, La Singolarità è vicina, Ed. Apogeo, Milano 2008
Monod J, Il caso e la necessità, Mondadori, Milano 1970 C. Pelanda, Futurizzazione, Sperling & Kupfer Editori, Milano 2003
Prigogine Y., Stengers I., La nuova alleanza, Einaudi, Torino 1981
Girando nei meandri di Internet ci si può imbattere, se guidati dalla curiosità di certe cose, in un sito particolare, quello del Principia Cybernetica Project (in seguito PCP). Tale sito è all’indirizzo: http://pespmc1.vub.ac.be (Principia Cybernetica Web); il PCP ha sede operativa presso la “Libera Università di Bruxelles”.
Il nome del Progetto deriva dalla famosa opera “Principia Mathematica” di Bertrand Russel (1872 – 1970) e Alfred Whitehead (1861 – 1947).
I colori sono accattivanti: color sabbia, blu, rosso. con i saettante nero del testo scritto.
Di cosa si occupa il sito?
E’ presto detto. Si occupa di dispiegare al lettore un intero sistema filosofico, un “systema mundi” che ha l’ambizione di affrontare i temi fondamentali della scienza e della filosofia inquadrandoli in una struttura organica che ha la sua base nella “cibernetica evolutiva” e che cerca di rispondere, appunto, ai grandi temi dell’umanità di tutti i tempi, “chi siamo, cosa facciamo, dove andiamo”, supportata dalla filosofia del pragmatismo di William James (1842 – 1910) e Charles Peirce (1839 – 1914) e dall’influenza di Claude Helvetius (1715 – 1771), sensista.
Il PCP fa concepito dal fisico Valentin Turchin che viveva fino al 1977 nell’Unione sovietica e che poi si trasferì negli USA.
Nel 1987 Turchin entrò in contatto con l’informatico Cliff Joslyn, un teorico dei sistemi statunitense, ora ai Los Alamos Laboratories e con lui ideò una rete semantica di ipertesti ed insieme fondarono il PCP scrivendo un manifesto cibernetico.
Nel 1990 un altro fisico, il belga Francis Heylighen, si unì al progetto.
In pratica il sito, ancora attivo, è un link semantico che si dipana in migliaia e migliaia di pagine ricche di contenuti scientifici e filosofici, ma anche religiosi e sociali, oltre che naturalistici. Una vera e propria miniera di informazioni.
In breve ed in estrema sintesi, il PCP ci dice che siamo nell’”età dell’uomo” o “antropocene”, come l’ ha definita il nobel Paul Krutzen e che l’ uomo sta evolvendo le proprie forme di coscienza verso un superorganismo in cui tutto è in comune e tutto e condiviso.
Tale “essere” ha diversi nome: “Metaman” (“Oltreuomo”), “Cybion”, “organismo sociale”.
Tale essere vive nella “noosfera” o “sfera del pensiero”, assimilabile a Internet; il primo a parlare di noosfera fu il filosofo gesuita Pierre Teilhard de Chardin (1881 – 1955) che vedeva il cristianesimo come un continuo evolvere dell’uomo verso un super – essere rappresentato dal “Cristo cosmico” che rappresentasse in sé tutta l’umanità (si veda, ad esempio, “Il fenomeno umano” 1955 e “L’ambiente divino” del 1957). De Chardin fu visto molto criticamente dalla Chiesa cattolica e solo recentemente il suo pensiero è stato rivalutato.
Nel PCP esiste una sorta di “panteismo cosmico”, di un auto evolversi della società umana, di fase in fase, fino ai limiti della divinità; in questa evoluzione il PCP ricorda i principi filosofici e religiosi dell’induismo e di Plotino e apre la via a quello che si chiama, un teknomisticismo (scritto proprio così) di cui la Rete si sta facendo paladina.
In Schopenhauer (1788 – 1860) il mondo è “volontà più rappresentazione” per il PCP è invece “azione più rappresentazione”, rappresentando l’azione, la dinamicità, l’atto, il segno semantico dell’azione di Athropos sulla Natura.
Quello del PCP è, in definitiva, un modo per conciliare gli eterni opposti di razionalità e misticismo e sembra aver raggiunto ottimi risultati.
“Se davvero potete penetrare le sementi del tempo,
e dire quale granello germoglierà e quale no,
parlate a me…” (Banquo, Macbeth Shakespeare atto I, scena 3)
Introduzione
La meccanica quantistica (in seguito anche m.q.) si è dimostrata la migliore teoria che abbiamo per descrivere il mondo atomico; come è noto, a tale livello, quella che definiamo “realtà” viene recepita in una accezione assai diversa da quella che siamo abituati a considerare a livello macroscopico, cioè del mondo della fisica classica e che rende conto del mondo in cui viviamo normalmente. Essa nacque nei primi anni del XX secolo, ad opera del fisico tedesco Max Planck (1858 – 1947), nobel per la fisica nel 1918 ed Albert Einstein (1879 -1955), tedesco poi svizzero ed infine statunitense, nobel per la fisica nel 1921, , per spiegare alcuni fatti del mondo atomico incomprensibili alla luce della meccanica classica o newtoniana. Tali fatti sono la stabilità degli elettroni nelle orbite atomiche, l’effetto fotoelettrico, la “catastrofe ultravioletta” in relazione alla cosiddetta emissione di corpo nero. In pratica ci si accorse che le grandezze fisiche, in particolare l’energia, a livello atomico è quantizzata, cioè non poteva assumere un valore continuo, come nel mondo classico, ma può assumere solo valori ben determinati (“autostati”), con una certa probabilità. Da notare che, nel mondo classico in cui viviamo, non vi sono effetti quantistici e quindi gli stati atomici subiscono un processo chiamato “decoerenza quantistica” quanto sono interpretati come facenti parte di oggetti del mondo usuale. Tuttavia, permane il grande problema di capire perché nel mondo usuale macroscopico non osserviamo i fenomeni quantistici.
A causa del principio di indeterminazione di Werner Heisemberg (1901 -1976), formulato nel 1927, dal fisico tedesco nobel nel 1932, non è possibile conoscere con precisione grande quanto si vuole alcune coppie di osservabili fisiche (chiamate “variabili coniugate”) come, ad esempio, la posizione di una particella o la sua quantità di moto oppure la sua energia o l’istante in cui la si localizza. Questo è intuitivo: infatti, a livello quantico, per “osservare” una particella dobbiamo per forza perturbarla anche usando qualcosa di molto piccolo come può essere un fotone (cioè un quanto di luce). Quindi possiamo dire che, ancor prima della creazione della m.q., dal punto di vista filosofico si poteva prevedere che la “realtà” non potesse essere perfettamente “conoscibile” nel senso che abbiamo prima spiegato. Per le variabili “posizione” x e “quantità di moto” p si ha (h tagliata costante di Planck):
L’equazione che governa i fenomeni quantistici è l’equazione del fisico austriaco Erwin Schroedinger (1887 -1961) nobel nel 1933,e, nel cosiddetto limite classico, essa si trasforma in quella di Newton. La funzione incognita è chiamata “funzione d’onda” (in seguito anche f.d.o.)ed è indicata dalla lettera greca psi, funzione delle coordinate spaziali indicate con il vettore r e del tempo t. Tale equazione è quindi:
dove V(r) è un eventuale potenziale sterno.
Una volta nota la f.d.o. di un sistema è possibile conoscere la probabilità associata alla misurazione di certe variabili dinamiche come, ad esempio, l’energia. La probabilità risulta infatti proporzionale al quadrato del modulo della funzione d’onda, secondo quanto definito dal fisico tedesco Max Born (1882 - 1970), nobel per la fisica nel 1954.
Come si vede, il principio di Heisemberg, costringe a parlare solo di valori di probabilità e non di certezza nelle misure quantistiche.
Dunque, da un punto di vista puramente funzionale, cioè pragmatico, la f.d.o. risolve tutti i problemi del mondo atomico e, naturalmente, subatomico, ma il vero aspetto problematico della m.q. è nel significato, cioè nelle interpretazione da dare alla m.q. tramite la f.d.o.
In questa ottica si aprono diverse possibilità che in un certo senso hanno dato origine a vere scuole interpretative di cui la capostipite si ri fa alla cosiddetta interpretazione ortodossa di Copenaghen, dovuta al fisico danese Niels Bohr (1885 -1962), nobel nel 1922 ed a Heisemberg (che, oltre al celebre principio di indeterminazione, sviluppò anche una “meccanica delle matrici” che poi si rivelò identica alla meccanica differenziale di Schroedinger). Da notare che, in m.q., ogni sistema quantistico è descritto da un vettore nello spazio (lineare) di Hilbert.La linearità dello spazio permette i tipici fenomeni di sovrapposizione degli stati tipici della m.q. Dunque uno stato fisico è rappresentato da un vettore di stato (“ket” in m.q.) che appartiene ad uno spazio di Hilbert (dal nome del matematico David Hilbert, 1862 -1943). Per “estrarre” l’informazione dal ket occorre proiettarlo su un’autostato di una osservabile fisica generando un nuovo spazio di Hilbert, coincidente con la funzione d’onda, chiamato “duale”. Nella meccanica delle matrici gli operatori relativi a grandezze coniugate non commutano. I risultati di una misura sono i possibile auto valori della matrice associata.
La m.q. fu poi estesa nella meccanica quantistica relativistica (chiamata poi “teoria dei campi”) dal fisico francese Paul Maurice Dirac (1902 -1984, premio nobel nel 1933).L’equazione di Dirac è:
dove A, B, C, D sono opportuni parametri,”i” l’unità immaginaria e “c” la velocità della luce nel vuoto. La soluzione dell’equazione di Dirac portò alla scoperta delle antiparticelle.
Invece, i tentativi di unire la meccanica quantistica e la relatività generale hanno prodotto molte teorie (stringhe, supergravità, loop, teoria dei twistor etc.) ma nessuna ancora pienamente convincente.
Tuttavia, in tale ottica possiamo citare l’equazione di Wheeler – De Witt:
ove H è l’hamiltoniana (cioè una grandezza riconducibile all’energia totale del sistema) nella relatività generale quantizzata e la “psi” non è più la f.d.o. usuale della m.q., ma un campo funzionale che tiene conto di tutta la geometria e la materia dell’intero universo ed è quindi chiamata “funzione d’onda dell’universo”, f.d.o.u. Stephen Hawking (1942), professore britannico di matematica a Cambridge (UK), ha proposto una f.d.o.u. che obbedisce alla equazione di Wheeler –De Witt e si propone come una “Teoria del tutto” (t.d.t.).
L’interpretazione della Scuola di Copenaghen
L’interpretazione della m.q. di Bohr e di Heisemberg (1927) è quella di considerare la funzione d’onda del sistema come depositaria, tramite il suo modulo quadrato, di tutte le informazioni sul sistema stesso. In questa ottica le particelle, come nel caso degli elettroni in orbita intorno al nucleo atomico, sono da considerarsi, a causa del principio di indeterminazione, de localizzate nello spazio (naturalmente con probabilità totale pari a 1, cioè la certezza statistica). In ogni punto dello spazio sarà dunque associata una probabilità di trovare l’elettrone ma mai la certezza assoluta. Questa indeterminatezza è frutto della perturbazione della misura.
abilità intrinseca del sistema atomico. Infatti, come già detto, non si può conoscere la realtà senza osservarla e quindi, a livello atomico, ma anche molecolare, perturbarla. La teoria è locale ed a-causale, cioè non vale il principio di causa ed effetto in quanto ad una causa certa, l’osservazione, non è detto che corrisponda un effetto certo e ben conoscibile. Da un punto di vista strettamente tecnico, la m.q. di Bohr fu sviluppata come “meccanica delle matrici” seguendo l’impostazione matematica di Heisemberg. Successivamente, Schroedinger riuscì a sviluppare la m.q. in forma di una equazione differenziale che porta il suo nome. Presto si capì che le due versioni, matriciale e differenziale erano del tutto equivalenti.
Alcuni problemi della interpretazione di Copenaghen
Alcuni grandi fisici del tempo, principalmente Albert Einstein, non erano affatto convinti della descrizione della natura che emerga dalla interpretazione danese della funzione d’onda. Einstein, infatti, riteneva che la “realtà” avesse una esistenza intrinseca che non dipendesse quindi dall’osservatore come sembrava emergere dalla interpretazione di Bohr. Fin da subito furono note alcune bizzarrie della teoria come il famoso gatto di Schroedinger, contemporaneamente mezzo vivo e mezzo morto, o l’esperimento di Young delle due fenditure. In questo esperimento un fotone (o una particella atomica) scolpisce uno schermo con due fenditure. Se non la si osserva tale particella si presenta come onda (forma la caratteristica figura di diffrazione) se invece la si osserva il fotone “sceglie” una delle due fenditure e si distrugge l’interferenza. Dunque il solo atto di osservare la particella “modifica” la sua natura e determina il percorso. Una notevole variante dell’esperimento della doppia fenditura è stata proposta dal fisico statunitense John Archibald Wheeler (1911 -2008); in questo caso, con una modifica dell’esperienza della fenditura, si può, osservando a posteriori il percorso del fotone, “agire” sul passato determinando quale percorso ha effettivamente “scelto” il fotone. Tornando alle stranezze della teoria quantistica, Einstein riuscì a produrre nel 1935 quello che divenne noto come “paradosso di Einstein - Podolsky - Rosen” che, a dire degli autori, dimostrava l’incompletezza della m.q. e la necessità di trovare una teoria più completa con l’introduzione di “variabili nascoste” che facessero scomparire l’intrinseca aleatorietà del processo di misura quantistico. Il paradosso, poi confermato sperimentalmente, riguarda la possibilità di conoscere istantaneamente (violazione della località), lo stato quantico di una particella, nel caso in esame la “posizione” anche a distanza arbitraria. questo non violerebbe l’assunto base della teoria della relatività ristretta che afferma che è impossibile l’esistenza di velocità superliminari nella forma di trasferimento di informazione. Nel caso del paradosso infatti non è possibile trasmettere informazione anche se la velocità è effettivamente superiore a quella della luce. In seguito, nel 1952, David Bohm riformulò il paradosso EPR utilizzando lo spin di due particelle e non la posizione e la quantità di moto. Si noti che, se si conserva, anche classicamente la conoscenza di uno dei due spin influenza immediatamente il valore dell’altro, ma in m.q. la differenza è che non si possono misurare con esattezza i due spin correlati a causa del principio di indeterminazione e che quindi si “trasferisce” comunque una “decisione” sullo stato quantico. Questo è un esempio di “entanglement” (cioè connessione) quantistico in cui si crea una connessione istantanea tra due particelle lontane quanto si vuole ed è alla base degli studi sul teletrasporto quantistico. L’entanglement è stato dimostrato definitivamente dal fisico Alain Aspect (1947) nel 1982, verificando così la disuguaglianza di Bell e, in pratica, dimostrando la validità intrinseca degli aspetti non locali della m.q. Successivamente, nel 1997, Nicolas Gisin, un fisico dell’Università di Ginevra, ha dimostrato sperimentalmente usando fotoni in fibre ottiche che l’entanglement quantistico è reale su distanze di 10.9 Km e che il segnale tra le particelle “viaggia” almeno a 10 milioni di volte la velocità della luce. Tuttavia, tale velocità (che viola la relatività) non può, come già detto, essere utilizzata per trasferire informazioni (“no - communication theorem”). dal punto di vista pratico l’entanglement quantistico è utilizzato con successo nella criptografia quantistica.
Per quanto riguarda invece il gatto di Schroedinger si tratta di un gatto chiuso ermeticamente in un contenitore che ha una fiala di veleno collegata ad un contatore che registra il decadimento (quantistico) di un atomo. Se il decadimento avviene allora il gatto muore se non avviene è vivo. Tuttavia, finché non lo si osserva, il gatto si trova in una sovrapposizione quantistica di stati in cui è contemporaneamente vivo e morto. Questo esempio, molto famoso, in realtà non è proprio corretto in quanto, come ha fatto osservare il fisico statunitense Murray Gell – Man (1929), il gatto non è uno sistema chiuso e quindi interagisce con l’esterno respirando e scambiando calore ed altro e quindi non è un vero sistema quantistico come l’elettrone.
L’interpretazione a molti mondi di Hugh Everett o MWI (Many Worlds Interpretation)
Per evitare situazioni imbarazzanti, come nel caso del gatto di Schroedinger, sono stati fatti tentativi di interpretazioni della m.q. alternative a quella ortodossa di Copenaghen. Una delle più esotiche e spettacolari e senza dubbio quella prodotta nel 1957 dal fisico statunitense Hugh Everett III (1930 -1982), detta a “molti mondi”. Infatti, nella interpretazione di Bohr, l’osservatore ha un ruolo privilegiato. E’ lui che provoca il collasso della f.d.o., cioè il fatto che lo stato quantico “scelga” tra le diverse alternative di cui è composto. Per evitare questo, Everett ha pensato che ogni qual volta che si esegue una misurazione quantistica, il sistema in esame si divide in tutte le alternative possibili e ogni copia continua a vivere nel mondo sdoppiato. Per tornar al famoso esempio, quando si osserva il gatto di Schroedinger esso si divide in due: in un mondo è vivo e nell’altro non lo è più. Chiaramente, questo modello, è quanto mai dispendioso in termini di risorse, ma evita fenomeni ambigui come quello del gatto quantico. Da notare che l’interpretazione propriamente quantistica della MWI fa parte di una più generale categoria di “universi paralleli” (stringhe, superstringhe, brane e “bolle”) che, soprattutto in cosmologia, è divenuta negli ultimi anni rilevante. Un curioso esperimento mentale proposto inizialmente dallo scienziato austriaco Hans Moravac (1948) nel 1987 e indipendentemente da Bruno Marchel nel 1988 e poi dal cosmologo svedeseMax Tegmark (1967) nel 1998 con il nome di “suicidio quantico” prevede una sorta di “immortalità quantistica” (QTI = Quantum Theory of Immortality) se l’interpretazione MWI è corretta. Nell’esperimento c’è un evento esiziale per lo sperimentatore (e cioè siamo nei panni del famoso gatto); ad esempio, c’è una “pistola quantica” che uccide con probabilità 0.5 a colpo. Se è vera la MWI ad ogni colpo la scena si sdoppia e uno sperimentatore sopravvive alla pistola quantica con probabilità 0.5. e’ chiaro che si sparano N colpi la probabilità di sopravvivere sarà ½^N cioè veramente molto “bassa”. Dal punto di vista MWI invece una copia sopravvivrà sempre anche se il numero di copie vive sarà ½^N. In effetti, lo sperimentatore non solo avrà raggiunto l’immortalità ma saprà anche (purtroppo lui solo) che l’interpretazione WMI della m.q. è corretta e tutte le altre sono sbagliate.
Interpretazione di Ghirardi, Rimini, Weber (GRW)
In questa interpretazione deterministica e priva di variabili nascoste, il collasso della f.d.o. è “oggettivo” e non necessita della coscienza di un osservatore per avvenire. Il collasso avviene dunque spontaneamente quando vengono superate alcune “soglie critiche” di natura fisica (localizzazione spontanea).
Interpretazione di Wigner
Nella interpretazione del fisico ungherese Paul Wigner (1902 -1995), nobel nel del 1963, della m.q. la “coscienza” , gioca un ruolo chiave. E’ infatti proprio la coscienza a provocare il collasso della f.d.o. Questo è esemplificato in una modifica dell’esperimento del gatto di Schroedinger, chiamato esperimento dell’”amico di Wigner”. tale esperienza prevede che insieme allo sfortunato gatto sia presente nella stanza un essere umano (dotato di coscienza) che, in un certo senso, viene contagiato quantisticamente dalla indeterminazione dello stato del gatto e quindi si crea un nuovo stato, più complesso, fatto dalla sovrapposizione di “gatto vivo & amico felice” + “gatto morto & amico triste”.
Naturalmente questo apre grandi problemi di tipo sostanzialmente filosofico sul significato della coscienza (o meglio dell’autocoscienza)
L’interpretazione di Bohm
Per ovviare alla intrinseca acasualità della m.q. il fisico statunitense David Bohm (1917 - 1992) sviluppò un modello della m.q. in cui vi erano delle “variabili nascoste”, in questo caso il cosiddetto “potenziale quantico” che davano ragione di tutta la imprevedibilità della teoria. In questa ottica però si perde la località ed i fenomeni di comunicazione immediata a distanza (e relativi problemi relativistici) divengono preminenti. Questa interpretazione si basa sulla teoria della cosiddette onde pilota del fisico francese Louis de Broglie (1892 -1997), nobel nel 1929. L’ottica di Bohm è quella di un universo in cui tutto è collegato con tutto in un’ottica sostanzialmente olistica.
Bibliografia
B. D’Espagnat, “I fondamenti concettuali della meccanica quantistica”, Bibliopolis, 1980
P. A. M. Dirac, “I principi della meccanica quantistica”, Boringhieri, 1978
W. Heisemberg, “I princìpi fisici della teoria dei quanti”, Boringhieri, 1979
J. Von Neumann, “Mathematical Foundation of Quantum Mechanics”, Princeton Univ. press, 1955
E. Segrè, “Personaggi e scoperte nella fisica contemporanea”, Mondadori, 1976
L’articolo pubblicato su Physical Review, 47, 1935 aveva il titolo “Can Quantum-Mechanical Description of Physical Reality be Considered Complete?”
Il sogno di poter vivere eternamente ha sempre affascinato l’umanità fin dai suoi primordi. I miti, le religioni, i romanzi, i film, spesso hanno trattato di questo tema relegandolo, per lo più, nei regni a volte sulfurei a volte algidi della fantascienza sia cinematografica che letteraria.
Tuttavia, il 12 gennaio 1967, a Los Angeles, in California, vi fu il primo caso di un essere umano che venne ibernato in azoto liquido subito dopo la cessazione delle sue funzioni vitali e furono immesse nel suo corpo sostanze proteggenti, in attesa che la tecnologia del futuro potesse un giorno risvegliarlo.
Dunque l’antico sogno dell’umanità è avverato dai progressi scientifici e tecnologici del XXI
Da allora i “pazienti” ibernati si sono moltiplicati in tutto il mondo ma soprattutto negli Stati Uniti ma allo stato dell’arte della tecnologia il punto più delicato sarà il “risveglio” per due ordini di motivi: il primo è, naturalmente, che non abbiamo ancora la cura per tutte le malattie e poi non sappiamo trattare bene i tessuti “scongelati” che potrebbero subire danni irreparabili nell’operazione. Infatti sono stati eseguiti recentemente esperimenti con cani ibernati ma poi il risveglio ha presentato problematiche neurologiche.
In ogni caso la ricerca va avanti e la curiosità ci spinge ad indagare il fenomeno in modo più approfondito.
In realtà, il clamoroso evento del 1967 era stato preparato da un humus culturale nato, oltre che nei romanzi di fantascienza, anche da un libro di Robert W. Ettinger dall’eloquente titolo “La prospettiva dell’immortalità” (In Italia, “Ibernazione nuova era”) che ebbe anche un seguito pratico con la Fondazione del Cryonics Institute (Michigan, USA). Tuttavia l’istituto con il più alto numero di iscritti è l’Alcor (Arizona, USA). Da poco esiste anche la CryorRus (Mosca, Federazione Russa) per sospensioni crioniche anche in Europa.
La tecnica che porta alla crionica prevede di intervenire al più presto possibile sulla struttura biologica da conservare. Il tempo è un fattore assolutamente determinante. Infatti, prima ha inizio il processo di raffreddamento e più alte sono le possibilità di mantenere intatte le strutture biologiche coinvolte. E’ previsto poi che si agisca con liquidi anticongelanti per evitare danni ai tessuti. Successivamente, grazie all’azoto liquido, si porta la temperature a – 197 gradi centigradi.
Interessante notare come, dal punto di vista della prospettiva di una lunga sopravvivenza fisica, siano due le tecnologie specifiche: una quella della cosiddetta “mind uploading” e cioè del trasferimento della struttura neuronale da un supporto biologico ad un altro artificiale e poi naturalmente, al di là delle formidabili difficoltà tecniche, vi sono anche molte implicazioni in campo legale, etico e sociale che devono essere considerate.
Infatti, in praticamente tutti gli Stati del mondo vi sono leggi assai ristrettive per agire sulla conservazione di strutture biologiche dopo che abbiano cessato la loro funzione vitale. Po,vi sono problemi dovuti alla conservazione dei beni e delle proprietà del soggetto ibernato; dal punto di vista sociale poi occorre pensare a quale potrà essere il posto degli ibernati una volta, eventualmente, risvegliati. Infine, ma non ultimo, il problema etico che è sempre molto sentiti dalla popolazione.
cipio di indeterminazione di Heisemberg
Dobbiamo ora far notare come nella tecnologia della Mind uploading sia contenuto un ostacolo che pare strutturale, cioè non facilmente aggirabile e le cui conseguenza teoriche vanno meditate. Il problema si chiama Principio di Indeterminazione di Heisembreg ed è un principio base della meccanica quantistica. Tale principio, in termini eccezionalmente semplificati, afferma che è impossibile conoscere (cioè misurare) con ogni precisione il valore di certe variabili fisiche come, ad esempio, la quantità di moto (proporzionale alla velocità) e la posizione oppure l’energia ed il tempo.
Questo quindi implica, in generale, che è impossibile fare copie perfette di un sistema a livello delle dimensioni quantistiche. Corollario di questa affermazione è che quindi non si possono fare copie perfette di un substrato neurologico. In pratica la copia fatta nella mind uploading NON sarà identica all’originale. Cosa questo significhi resta da capire. Possiamo solo dire che se il sistema è non lineare, come sembra esserlo quello che rappresenta la “mente”, una piccola variazione delle condizioni iniziali (dovuto alla non precisione della copia) implica grandi variazioni a livello del risultato finale.
Problemi filosofici e legali
La realizzazione di una M.u. completa e funzionante porrà sicuramente problemi molto complessi nei campi della filosofia e della legge.
Infatti, la M.u. produrrà una nuova personalità oppure si tratterà di personalità distinte?
La “coscienza” sarà condivisa oppure separata? Che diritti e doveri avranno le copie? Quante se ne potranno fare? Vivranno in una realtà virtuale?
Per quanto riguarda il problema della coscienza sembrerebbe che, nell’ipotesi di copia l’originale e la copia possano essere considerate due entità diverse, mentre nel caso di una sostituzione graduale e progressiva la coscienza si mantiene necessariamente unica.
Come si vede i quesiti sono molti, complessi ed anche interconnessi. Ma su di essi, ancor prima che sulla tecnologia per realizzarla M.u., si può già ragionare da subito.
Conclusione
La tecnologia della mind uploading ha lasciato le pagine dei romanzi e dei film di fantascienza per essere indagata nei laboratori scientifici. Questo è un primo passo significativo a cui dovrà seguire il completamento tecnologico e la fattibilità sperimentale. Questa tecnologia apre le porte alla possibilità che la coscienza sia, in qualche modo, conservata e possa “vivere” al di là del naturale substrato biologico. Una volta “uploadata” la coscienza potrà essere inserita in Robot oppure essere inserite in simulazioni di realtà virtuale, come, ad esempio, second life. Naturalmente, come si dice, un grande potere comporta una grande responsabilità ed in questa ottica occorrerà che in parallelo alla tecnologia si sviluppi, come del resto avviene in tutte le aree critiche dello sviluppo, una “etica” che vigili sulla situazione e che inquadri in una solida matrice di regole la possibilità di utilizzare tale tecnica sugli esseri umani.
L’idea di una sopravvivenza di una “essenza vitale” alla morte del corpo fisico è sempre stata considerata una possibilità fin dalla comparsa dell’autocoscienza equindi della consapevolezza del dover porre termine, prima o poi, alla propria esistenza.
Questo ci è noto, ad esempio, dalle antichissime incisioni rupestri (intorno al 50.000 a.C.) trovate nelle grotte abitate dai nostro progenitori migliaia di anni fa, in cui si fa esplicito riferimento ad un’ “anima” che persiste alla morte del corpo fisico.
Tale aspirazione tuttavia, proprio in virtù dell’autocoscienza della nostra specie, è propria, a quanto ci risulta, solo dell’umanità.
In questa ottica vanno quindi considerati i miti, le leggende e poi i le credenze religiose relative al sopravvivere di un “quid” alla fine fisica. I miti egizi e greci, con le loro potenti e simboliche istanze di rinascita, ce lo stanno a ricordare, ma poi anche la maggioranza delle religioni prospetta una vita dopo l’esistenza fisica (forse con l’unica ma importante eccezione del buddismo, per cui il problema è molto sfumato).
Ma ora, nel XXI secolo, un secolo che dovrebbe vedere l’esponenziale aumento dello sviluppo delle conoscenze scientifiche e tecnologiche, forse possiamo cominciare a parlare in termini positivi e verificabili, quindi scientifici, di ipotesi di sopravvivenza tecnologica al corpo fisico.
In effetti, fin dagli anni ’60 dello scorso secolo, sono iniziati tentativi non velleitari di utilizzare tecniche di criogenia o ibernazione di strutture biologiche al fine di conservarle per lungo tempo in uno stato di sospensione. La sfide della crionica è affascinante ma ancora piena di ostacoli tecnici e burocratici anche se sono stati fati, indubbiamente, notevoli passi in avanti.
Nel frattempo, grazie anche allo sviluppo per certi versi tumultuoso degli elaboratori elettronici sempre più potenti e sempre a minore costo, si è presentata anche un’altra possibilità: parliamo della cosiddetta “Mind uploading” (anche M.u.) o WBE (“Whole Brain emulation”, emulazione globale del cervello) che consiste, in parole povere, nella trasposizione esatta e fedele delle strutture cerebrali da una struttura biologica e naturale, in una, ad esempio, al silicio, come la memoria di un computer, e quindi artificiale. Diciamo subito che attualmente (2008) non esiste ancora la possibilità tecnologica di una mind uploading ma ciò non impedisce di parlarne e quindi di preparare il terreno, se così possiamo dire, per sviluppi futuri non più relegati solo nel mondo della fantascienza.
Si tratta, in pratica, di “copiare” neurone per neurone (circa 100 miliardi) e sinapsi per sinapsi un intero encefalo.
Una volta “riacceso” la nuova mente (“prodotto” del cervello) dovrebbe funzionare esattamente come l’originale mantenendo invariato il “senso del Sé” e l’autocoscienza.
Una volta “salvata” la struttura mentale ci si può poi sbizzarrire a immaginare una nuova esistenza, magari in “second life” o in una struttura creata ad hoc, magari riproducendo l’ambiente di provenienza.
Si noti tuttavia che il tema della possibilità della mind uploading si basa sull’asserto di una struttura puramente meccanicistica della mente e della coscienza escludendo quindi subito qualsiasi teoria di tipo vitalistico. In pratica, si assume vera l’affermazione che una quantità critica di neuroni e sinapsi opportunatamente collegati possano generare il fenomeno della coscienza (una trasformazione di “quantità” in “qualità”).
Il nuovo essere potrebbe essere chiamato un “infomorfo” o “Cyborg” e naturalmente si porrebbero problemi di tipo etico e legale sullo stato di questo “individuo”.
Le tecnologie
Le tecniche per eseguire la M.u. si possono catalogare, ad esempio, in tecniche distruttive e tecniche non distruttive dell’encefalo. Naturalmente possono essere utilizzate anche altri tipi di cataloghizzazione. Un’altra importante distinzione, infatti, può essere quella tra tecniche di semplice copia versus tecniche di sostituzione progressiva e graduale di neuroni e sinapsi.
Tecniche distruttive
Questo tipo di tecniche, come detto, distrugge il tessuto cerebrale e non permette errori (essendo distrutto l’originale!). Tra di esse, le più interessanti sono:
1)Procedura microtomica
Consiste nell’” affettare” strisce di materia cerebrale, dell’ordine di 10 nanometri.
tri, per poi scannerizzarle con l’aiuto di un potente microscopio elettronico. Si può utilizzare paraffina per solidificare la materia cerebrale o congelarla tramite azoto liquido. E’ chiaro che la risoluzione dello strumento deve essere tale da cogliere i dettagli di neuroni e sinapsi, mappando la distribuzione dei canali ionici sulle membrane e sulla densità di sostanze chimiche.
2) Nanosostituzione
L’idea base è quella di iniettare nano robot nel cervello che vanno a porsi in vicinanza di neuroni e sinapsi, monitorandone l’attività. Quando hanno acquisito tutti i dati i nano robot uccidono le cellule e vi si sostituiscono
Tecniche non distruttive
In questo caso non si distrugge il tessuto ma si acquisiscono le più dettagliate informazioni possibili sulla struttura cerebrale.
1)Olografia a raggi x o gamma
Si scatta una “fotografia” iperdettagliata della struttura cerebrale da scannerizzare con raggi x e gamma (che però potrebbero ledere il tessuto avendo energie dell’ordine di 100 volte quelle tipiche del bersaglio).
2) Tecniche di MRI, Magnetic Resonance Imaging ad altissima definizione
3) Interferometria biofotonica
Utilizza l’interferenza dei fotoni per avere dettagliate informazioni.
4) Nanosonde mappanti
Simile alla nano sostituzione già descritta, ma non distruttiva; produce una copia dell’originale.
Lo stato dell’arte
Il progetto più avanzato di M.u. è quello della IBM e della Swiss Federal Institute of Technology di Losanna che hanno annunciato bel 2005 di voler procedere ad una completa simulazione, tramire rete neuronale, del cervello umano con il Progetto “Blue Brain” (http://bluebrain.epfl.ch/) basato sul supercomputer IBM “Blue Gene”. Gli studi iniziali sono incominciati sulla simulazione, a livello molecolare (che permette di apprezzare l’espressione genetica), di una colonna neocorticale di ratto (molto simile a quella umana), conclusasi nel dicembre 2006, per espandersi poi all’intera neocorteccia e poi all’intero cervello.
La colonna neocorticale di ratto è lunga 2 mm e larga 0.5 mm e contiene circa 10.000 neuroni e 100 milioni di sinapsi; quella umana contiene circa 60.000 neuroni ed è simile per dimensioni.
Un problema strutturale: il principio di indeterminazione di Heisemberg
Dobbiamo ora far notare come nella tecnologia della Mind uploading sia contenuto un ostacolo che pare strutturale, cioè non facilmente aggirabile e le cui conseguenza teoriche vanno meditate. Il problema si chiama Principio di Indeterminazione di Heisembreg ed è un principio base della meccanica quantistica. Tale principio, in termini eccezionalmente semplificati, afferma che è impossibile conoscere (cioè misurare) con ogni precisione il valore di certe variabili fisiche come, ad esempio, la quantità di moto (proporzionale alla velocità) e la posizione oppure l’energia ed il tempo.
Questo quindi implica, in generale, che è impossibile fare copie perfette di un sistema a livello delle dimensioni quantistiche. Corollario di questa affermazione è che quindi non si possono fare copie perfette di un substrato neurologico. In pratica la copia fatta nella mind uploading NON sarà identica all’originale. Cosa questo significhi resta da capire. Possiamo solo dire che se il sistema è non lineare, come sembra esserlo quello che rappresenta la “mente”, una piccola variazione delle condizioni iniziali (dovuto alla non precisione della copia) implica grandi variazioni a livello del risultato finale.
Problemi filosofici e legali
La realizzazione di una M.u. completa e funzionante porrà sicuramente problemi molto complessi nei campi della filosofia e della legge.
Infatti, la M.u. produrrà una nuova personalità oppure si tratterà di personalità distinte?
La “coscienza” sarà condivisa oppure separata? Che diritti e doveri avranno le copie? Quante se ne potranno fare? Vivranno in una realtà virtuale?
Per quanto riguarda il problema della coscienza sembrerebbe che, nell’ipotesi di copia l’originale e la copia possano essere considerate due entità diverse, mentre nel caso di una sostituzione graduale e progressiva la coscienza si mantiene necessariamente unica.
Come si vede i quesiti sono molti, complessi ed anche interconnessi. Ma su di essi, ancor prima che sulla tecnologia per realizzarla M.u., si può già ragionare da subito.
Conclusione
La tecnologia della mind uploading ha lasciato le pagine dei romanzi e dei film di fantascienza per essere indagata nei laboratori scientifici. Questo è un primo passo significativo a cui dovrà seguire il completamento tecnologico e la fattibilità sperimentale. Questa tecnologia apre le porte alla possibilità che la coscienza sia, in qualche modo, conservata e possa “vivere” al di là del naturale substrato biologico. Una volta “uploadata” la coscienza potrà essere inserita in Robot oppure essere inserite in simulazioni di realtà virtuale, come, ad esempio, second life. Naturalmente, come si dice, un grande potere comporta una grande responsabilità ed in questa ottica occorrerà che in parallelo alla tecnologia si sviluppi, come del resto avviene in tutte le aree critiche dello sviluppo, una “etica” che vigili sulla situazione e che inquadri in una solida matrice di regole la possibilità di utilizzare tale tecnica sugli esseri umani.
Web
http://minduploading.org/
http://www.ibiblio.org/jstrout/uploading/
http://www.popsci.com/category/tags/mind-uploading BBC - Mind uploading and the Singularity (video)
Libri
K. Eric Drexler, “Engines of creations”, Anchor Books, New York 1986
Gerald M. Edelman, “Il presente ricordato”, Rizzoli, Milano 1991
William Irwin (a cura di) “Pillole rosse – Matrix e la sua filosofia” Bompiani, Milano 2006Ray
Kurzweil “La singolarità è vicina”, Apogeo, Milano 2008 pagg. 191 -196
Ray Kurzweil “The age of spiritual machines”, Panguin Putnam, Usa 2000
Hans Moravec, Mind Children: the future of robot and human intelligence, Harvard University Press, Cambridge, Massachusetts,1988
Film
“Nirvana”, Italia 1997, Gabriele Salvatores
“eXistenZ”, Canada 1999, David Cronenberg
“Il tredicesimo piano”, Usa - Germania 1999, Josef Rusnak
“Matrix”, Usa – Australia 1999, fratelli Wachowsky
“Matrix reloaded”, Usa 2003, fratelli Wachowsky
“Matrix Revolutions”, Usa 2003 Wachowsky
“Johhny Mnemonic”, Usa 1995, Robert Longo
Racconti
“Neuromante”, William Gibson, Editore Nord 2004
Introduzione
Il XX° secolo è stato un secolo particolare; infatti, già il XIX° aveva, tramite il positivismo e l’empirismo un nuovo modo di “vedere” la natura; un modo che si rifaceva direttamente all’osservazione critica dei fenomeni, nel solco anche della tradizione galileiana e newtoniana e sulla scia dell’empirismo inglese di Francesco Bacone e della filosofia razionalista di Cartesio.
In verità, sul finire del XIX° secolo dopo i fasti illuministi culminati nella sistematizzazione della meccanica razionale, qualche scricchiolio l’edificio della fisica classica l’aveva pur mostrato. Ed in particolare, la nuova teoria atomica della materia, mostrava già alcune stranezze come per il caso della cosiddetta “catastrofe ultravioletta” che dava risultati infiniti per il caso del “corpo nero”. L’apparire di “infiniti” in una teoria fisica è sempre segnale del fatto che la teoria mostra “singolarità”, o funzionamenti limitati che nascondono sovente grandi cambiamenti di visione;infatti fu proprio lo studio dello spettro di emissione del “corpo nero” che portò lo scienziato tedesco Max Planck, nel dicembre del 1900 a presentare un lavoro che di fatto fonda la meccanica dei quanti (in seguito m.q.).
La m.q. prevede che a livello atomico la materia si comporti in quantità “discrete” (e cioè non “continue”) ed, in particolare, che l’energia possa essere scambiata solo per “pacchetti” interi, multipli di una quantità fondamentale.
Un risultato strano ed inatteso che però apriva le porte ad una concezione completamente diversa della mondo fisico. Il principio di indeterminazione di Heisemberg avrebbe poi mostrato come non sia possibile conoscere tutto della natura, ma solo una parte. L’”osservato” (sistema fisico) e l’”osservatore” diventano entrambi parti di un fenomeno concettualmente indissolubile dove il secondo influenza il primo.
Ma il mondo atomico non era l’unico che mostrava irregolarità. Nel 1905 un fisico tedesco emigrato in Svizzera, Albert Einstein, indagando le proprietà di invarianza delle equazioni di Maxwell dell’elettromagnetismo, giunse a quella che poi sarebbe divenuta universalmente nota come Teoria della relatività ristretta o speciale (in segui t.r.r.).
In pratica, dall’assunto sperimentale dell’invarianza di tutte le leggi fisiche per sistemi inerziali (cioè in moto rettilineo uniforme) e dal principio della costanza della velocità della luce nel vuoto, Einstein deduceva conseguenze inaspettate. Il tempo e lo spazio sono “relativi” all’osservatore e perdono il loro carattere “assoluto” che Newton aveva dato loro ed essi si “dilatano” o si “contraggono” a seconda dell’osserevatore.
Inoltre, come regalo inaspettato, la t.r.r. diede una formula che lega la massa di un corpo in movimento alla sua velocità. Questa formula a riposo dà il valore in energia della massa di un corpo: è la famosa formula E=MC.divenuta nota per le sue implicazioni nucleari.
L’ultima grande scoperta del ventennio d’oro della fisica del XX secolo fu la scoperta della teoria della Relatività generale (in seguito t.r.g.) sempre ad opera di A. Einstein.
Tale teoria “geometrizza” una forza, quella di gravità e vede la sua azione in modo completamente diverso e cioè come una massa che deforma lo spazio – tempo.
Ma se ci si fermasse a questa sarebbe una operazione brillante ed esteticamente affascinante ma nulla di più.
Invece, questo passaggio dalla fisica alla geometria, diede dei risultati del tutto nuovi ed inaspettati fondando, di fatto, una nuova teoria della gravitazione.
Anche in questo caso vi erano stati dei “segnali” che qualcosa non funzionava bene, come il caso dello spostamento dell’orbita del perielio del pianeta Mercurio che invece trova perfetta giustificazione nella t.rg..
Il ventesimo secolo fu un secolo eccezionale per le scienze fisiche. Pose inoltre le basi per una teoria relativistica gravitazionale che porterebbe ad indagare nei primissimi istanti dopo il Big bang. Purtroppo tale teoria non ha ancora una struttura stabile ma le basi sono state poste.
Meccanica quantistica
La m.q. entra in vigore a scale atomiche mentre nel mondo in cui viviamo non ha effetti individuabili.
La m.q., come detto, nasce per spiegare dei fenomeni inspiegabili alla luce delle conoscenze classiche (e cioè newtoniane), come l’emissione di corpo nero e la stabilità degli elettroni nelle loro orbite attorno al nucleo degli atomi.
Il principio base della m.q. è, come detto, il principio di indeterminazione di Heisemberg che dice che vi sono alcune grandezze fisiche non misurabili contemporaneamente, come la velocità e la quantità di moto oppure il tempo e l’energia. Questo ci dice che c’è una intrinseca impossibilità a “conoscere” esattamente la realtà fisica, almeno per alcune variabili caratteristiche del sistema.
Il principio di indeterminazione porta quindi necessariamente ad una descrizione probabilistica della m.q. in termini appunto di distribuzione di probabilità e viene meno il concetto di certezza (probabilità P = 1 ) caratteristica della meccanica classica. Questo porta ad alcuni apparenti paradossi come la doppia natura delle particelle elementari, contemporaneamente onde e corpuscoli.
In meccanica classica la descrizione di un sistema avviene mediante una equazione differenziale (semplificando) e i valori iniziali, mentre in m.q. la descrizione avviene mediante l’equazione di Schrodinger oppure la meccanica delle matrici di Heisemberg (il fisico svizzero W. Pauli dimostrò l’equivalenza delle due descrizioni).
La m.q. porta inevitabilmente a paradossi quando si considera il problema della misura.
Infatti, a causa del principio di indeterminazione, accade che un sistema fisico sia descritto da un parametro, come l’energia, che ha una distribuzione di probabilità piuttosto che la certezza classica.
Famoso è l’esempio del “gatto di Schrodinger” che risulta, se collegato ad un sistema quantistico, contemporaneamente vivo e morto e solo l’osservazione provoca il cosiddetto “collasso” della funzione d’onda che fa precipitare il sistema in uno stato ben determinanti.
La m.q. ha numerose applicazioni nel mondo della tecnica come in superconduttività, l’elettronica ed i transistor.
Aperto è invece il dibattito sulla interpretazione filosofica della m.q. con diverse “scuole” di pensiero tra cui ricordiamo la cosiddetta “scuola di Copenaghen” di Niels Bohr e al teoria a molti mondi di Hugh Everett III.
Nella prima, la funzione d’onda genera una sovrapposizione quantica di stati con differenti probabilità. Quando si osserva il sistema si fa collassare la funzione d’onda in un unico stato effettivamente osservato.
Nella interpretazione a “molti mondi” il sistema quantico si biforca in continuazione sotto l’osservazione generando universi paralleli che contengono tante copie quante sono le possibilità quantiche di stato.
L’elettrodinamica quantistica è una teoria quantistica del campo elettromagnetico e quindi comprende sia la m.q. che la t.r.r.
Una ulteriore evoluzione in fisica subnucleare è la teoria della cromodinamica quantistica che descrive la fisica dei quark.
Teoria della Relatività ristretta
La t.r.r. nasce come naturale sviluppo dell’invarianza delle equazioni di Maxwell in sistemi inerziali.
Einstein non fece altro, come lui stesso, ammise che trarre le conseguenze di una situazione logica che si era dimostrata ad un certo punto inevitabile.
Il fatto sperimentale che aprì la strada alla t.r.r. fu la prova, nell’ambito delle misure sperimentali, della non esistenza di un supporto privilegiato rispetto a cui si sarebbe dovuta muovere un’onda luminosa: l’etere.
L’esperimento di Michelson - Morley dimostrerà la sua non esistenza.
Da ciò presero le mosse i lavori di Loretnz e Fitzgerald e di Poincarè fino a giungere ad Einstein che codificò una teoria basata sull’invarianza della velocità della luce nel vuoto (principio sperimentale) e sull’uguaglianza di tutte le leggi fisiche per trasformazioni inerziali (estensione del principio di relatività di Galileo).
Einstein produsse le famose equazioni di trasformazione di Loretnz (che le scoprì prima non interpretandole correttamente).
La tdrr ha avuto importanti conferme sperimentali ad esempio nell’allungamento della vita media del mesone mu (o muone).
Teorie della Relatività generale
Tale teoria (t.r.g.), come dice il nome, è una generalizzazione di quella speciale. Ora si richiede infatti che le leggi fisiche siano invarianti rispetto a tutti i sistemi anche quelli accelerati (e quindi non inerziali).
La trg usa una matematica avanzata e sofisticata la cosiddetta analisi tensoriale che era stata inventata dai matematici italiani Levi – Civita e Ricci – Furbastro nell’ambito di ricerche riguardanti la fisica matematica.
La grande innovazione della t.r.g. è stata quella, come detto, di geometrizzare una forza, quella della gravità, per poi dedurre conseguenze sperimentali nuove.
La t.r.g. è una teoria fisica che ha avuto immediata applicazione in cosmologia in quanto ben si adatta ai temi suddetti.
Dal punto di vista matematico si tratta di risolvere un sistema di equazioni differenziali non lineari accoppiate che nel limite classico danno le equazioni di Newton.
I tentativi di estendere la t.r.g. a sistemi quantistici (gravità quantistica) sono per ora tutti falliti.
Conclusioni
La Scienza nel ventesimo secolo ha vissuto la sua più grande rivoluzione. L’apparire in un tempo di poco più di un decennio della Relatività speciale generale più l’avvento della meccanica quantistica hanno segnato uno dei momenti più alti dell’evoluzione della conoscenza umana.
Aperto ed estremamente interessante è il quesito se il metodo scientifico, basato sulla stretta osservazione analitica dei fenomeni, possa interpretare, la Realtà o se occorra invece un approccio nuovo, di tipo olistico, tipico dei sistemi complessi. che consideri il tutto superiore alla mera somma delle parti.
E’ stato il trionfo del metodo scientifico che si basa sull’osservazione, sulla esperienza, sull’ipotesi e sulla teoria .E’ stato il trionfo dell’umiltà della rinuncia della conoscenza a –priori o ex cattedra per giungere, tramite la paziente osservazione, ad una conoscenza meno vasta ma certa del mondo.
Ray Kurzweil (New York, 1948) è un futurologo ed inventore ed è uno dei principali propugnatori della tesi “singolatoriana” che preconizza l’avvento della Singolarità e cioè di quel momento in cui la progressiva accelerazione non lineare della tecnologia (la “legge dei ritorni accelerati”,a sua volta accelerata, componendo quindi una crescita “doppiamente esponenziale”) porterà al manifestarsi di un epifenomeno: la fusione tra intelligenza biologica con quella artificiale.
Questo sarà un vero e proprio salto qualitativo innescato engelianamente “oltre un certo limite la ‘quantità’ si trasforma in ‘qualità’, dal superamento di un “valore critico” di tecnologia intelligente.
Quali sono le aree interessate da questa irrefrenabile evoluzione che innescherà la singolarità? E’ presto detto: l'ingegneria genetica, la nanotecnologia e Robotica (secondo l’acronimo GNR).
Nella filosofia transumanista si parla di nano, bio, info e cogno (per tecniche cognitive), auspicandone la convergenza di queste tecnologie.
Ma torniamo al concetto di Singolarità.
Il primo a parlare di “singolarità tecnologica” nella accezione moderna è stato Vernor Vinge (Waukesha, Wisconsin,1944), scrittore e matematico, all’inizio degli anni ’80 dello scorso secolo (attualmente suhttp://www.ugcs.caltech.edu/~phoenix/vinge/vinge-sing.html in inglese ed in italiano su http://www.estropico.com/id136.htm).
La Singolarità, come già accennato, è un momento di discontinuità e di sostanziale cambio di “paradigma” culturale; la tecnologia crescerà sempre di più fin quando l’intelligenza umana basata sul carbonio si fonderà con l’intelligenza artificiale basata o su altri elementi chimici, come il silicio dei computer, o su nuove forme del carbonio, come i nanotubi; in ogni modo, il “nuovo mondo” che emergerà dalla cosmogenesi tecnologica avrà poco a che fare con il mondo che tradizionalmente conosciamo.
Kurzweil si basa sulla sua “legge del ritorno accelerato” che garantisce una forte evoluzione non lineare della tecnologia in una certa analogia con la cosiddetta “legge di More” per quanto riguarda il raddoppio del numero dei componenti di un circuito elettronico integrato.
Naturalmente, per la specie umana è necessario, dice l’autore,affrontare in piena coscienza questa “transazione”.
Si noti che il singolaritarismo si inserisca a pieni titolo nella corrente più in generale del transumanesimo, dell’estropianesimo (www.estropico.com) e della futurizzazione.
Il filosofo Max More (Bristol, Inghilterra, 1964) diede inizio a questo movimento filosofico nel 1988 in California, USA fondando l’Extropy Institute in cui ebbe origine l’estropianesimo antesignano del transumanesimo (indicato anche con >H oppure H+).
Qualche anno prima, nel 1987, si era formato, tramite il fisico Valentin Turchin, il Principia Cibernetica Project (PCP) ancora attivo (vedi:http://pespmc1.vub.ac.be) che anticipava questi temi.
Ma torniamo al lavoro di Kurzweil, dopo averlo inquadrato nella giusta cornice di riferimento.
Il libro ha 9 capitoli,un prologo, un epilogo ed una appendice, più dettagliate Note finali e presenta indubbiamente una grande messe di informazioni strutturate in linee di esposizione e dialogo tra “enti” pre e post singolarità.
Il primo capitolo, parla delle “6 epoche” che sono individuabili nello sviluppo della società: nell’ordine quella della fisica e chimica, della biologia e del DNA, dei “cervelli”, della tecnologia, della “fusione di tecnologia ed intelligenza umana” ed infine, l’affascinante ultimo capitolo sull’ “universo che si sveglia”.
Il secondo capitolo tratta di “Una teoria dell’evoluzione tecnologica” dove viene spiegata la legge dei ritorni accelerati. Il terzo capitolo si intitola “Raggiungere la capacità computazionale del cervello umano”, il quarto “Il software dell’intelligenza umana”, il quinto della GNR, e cioè Genetica, nanotecnologia e Robotica, il sesto è sull’impatto della rivoluzione GNR, il settimo ha un suggestivo titolo “Ich bin ein Singularitarian”, l’ottavo torna sulla GNR come “GNR: l’intreccio profondo di promessa e pericolo” (significativa l’osservazione sull’azione democratizzante del web nel caso del colpo di Stato sventato, anche grazie ai nuovi media, da Boris Yeltsin e diretto contro Mikhail Gorbaciov, il nono sono “risposte ai critici” ed infine, nell’ultimo contributo, vi è l’Epilogo di tipo filosofico su cosa sia la Singolarità” e del rapporto tra essere umano e natura (con supremazia del primo) e delle risorse sul web.
Da notare che, nell’appendice, c’è una trattazione matematica della famosa “legge dei ritorni accelerati”.
Il libro ha tutti i numeri per diventare una “guida” transumanista; affronta, infatti, tutti i temi tipici dell’argomento focalizzandosi sulla Singolarità.
Particolarmente interessante è la tecnologia della “mind uploading” che permetterebbe un “trasferimento” della stessa “coscienza” da un supporto biologico ad uno artificiale.
Una piccola nota riguarda l’eccessiva piccolezza dei caratteri che, soprattutto nei grafici, rende, a volte, difficile la lettura.
Questo ultimo lavoro di Kurweil è sicuramente interessante e, soprattutto, nell’asfittico mercato editoriale italiano della tecnologia avanzata e della futurizzazione, un riferimento importante per quanti vogliano avere un quadro teorico e pratico di riferimento su “dove si va a parare” per quanto riguarda questi temi così affascinanti.
Inoltre, di fatto, è il primo libro inquadrabile nella filosofia “transumansita” italiana di un autore molto noto all’estero e che quindi speriamo sia propedeutico ad altri testi di questo genere.
Giuseppe Vatinno
Bibliografia consigliata
Dello stesso autore:
“The Age of intelligent machines” MIT Press, USA, 1992
“The Age of spiritual machines” Penguin Books, USA, 1999
Intervista a Max more sulla singolarità: http://www.estropico.com/id146.htm
Introduzione generale
Il mondo è strutturato sulla base dell' evoluzione darwiniana, a sua volta basata sul concetto di "caso e necessità" (vedi J. Monod(1)), il caso inteso come variazione, appunto casuale, del corredo genetico e la necessità intesa come necessità di adattamento all'ambiente. Sul "caso" non si può agire (o meglio, non si può ancora agire ma lo si potrà con tecniche genetiche in un breve futuro) mentre lo si può fare sulla "necessità", ovverossia sull'adattamento all'ambiente che presuppone delle azioni che comportino un utilizzo di energia esterna per mantenere in vita l'unità funzionale vivente. E' proprio questa ricerca di sopravvivenza energetica che porta sia la lotta intraspecie sia la lotta interna ad una specie.
Alla base di tutto vi è il secondo principio della termodinamica; infatti, una sua formulazione semplificata, di tipo biologico, ci dice che un organismo ha bisogno di energia per sopravvivere. Infatti, in assenza di tale energia la struttura comincerà ad aumentare l'entropia interna che porta all'equilibrio termico e cioè alla fine dell'organismo.
Questa è la strategia del "geni" (v. R. Dawkins(2)).
Certamente la società umana organizzata è intervenuta a livello memetico per cambiare le "regole del gioco", cioè dandosi delle "regole", tradotte in leggi che limitano lo "stato di natura" del "tutti contro tutti".Questo permette di massimizzare la speranza e la qualità di vita dei singoli membri. Tuttavia, non dobbiamo dimenticarci, che ad una incredibile evoluzione di tipo memetico, cioè evoluzione delle idee, non ha fatto da contraltare una evoluzione di tipo genetico, cioè fisico, nel senso che il corpo fisico di animali ed umani ha ancora bisogno di energia dall'esterno (e sempre lo avrà) e per ottenerla il modo più semplice che ha è quello appunto di aggredire e predare gli altri organismi. Un modo più complesso invece è quello di programmare le risorse e distribuirle socialmente ed è quello che la specie "homo sapiens" ma anche alcuni altri animali tentano di fare.
In questa ottica sarebbe interessante studiare quel la che potremmo definire una "sociologia cibernetica" di una eventuale società di macchine.
La sfida potrebbe essere quella di una società regolata in modo che ogni membro abbia, in media, più energia a disposizione che fosse da solo. Allora diverrebbe conveniente un certo grado di cooperazione.
Compito di una società evoluta sarebbe quello di trasformare memeticamente la struttura dei rapporti tra individui e nazioni facendo comparire anche il concetto di cooperazione costruttiva ma, ricordandosi sempre (è questo è uno dei punti base del ragionamento) che l'individuo e la società è sempre regolato in massima parte dai geni e quindi conserverà intatti gli istinti
distruttivi che servono a garantire il possesso dell'energia essenziale.
La Teoria dei Giochi(3) ci mostra come, a volte, in certe condizioni, è utile cooperare e quindi anche dal punto di vista sistemico razionale la cooperazione è una scelta razionale che porta vantaggi a tutti;cioè si tratta di una strategia definita "win – win" in cui tutti vincono, ma non sempre è la strategia migliore; lo è, infatti, quando i rapporti tra i membri dell'organismo sociale tendono ad essere costanti e ripetuti nel tempo ed allora la strategia migliore è la cosiddetta "tip for tap" cioè iniziare collaborando e poi far esattamente quello che fa il competitore.
In altri casi, ad esempio un incontro occasionale, la strategia vincente è invece quella puramente utilitaristica. Poiché una società è una struttura complessa basata sui due tipi di rapporti allora anche le relazioni da adottare saranno un misto dei due comportamenti fino a giungere al giusto mix dei due.
1 Jaques Monod "Il caso e la necessità" Oscar Mondadori Milano 1970
2 Richard Dawkins, "il gene egoista", Mondadori, Milano 1994
3 http://it.wikipedia.org/wiki/Teoria_dei_giochi
L’umanità ha sempre avuto bisogno di “credere in qualcosa” che superi e trascenda la condizione umana e si ponga ad un livello superiore; per questo motivo, diciamo così di ‘psicologia di massa’ i culti trascendenti hanno avuto e sempre avranno una forte presa sulla popolazione generale. Tale fascino è anche sempre stato esercitato da ogni “culto simbolico” , anche di natura politica. Infatti, spesso, una coreografia simbolica fa da sfondo alle ideologie politiche (soprattutto se di tipo assolutistico).
Inoltre, si è visto e sperimentato, come un eccessivo livello di astrattismo nuoccia, in genere, allo sviluppo di una società equilibrata ed armoniosa. Qualora si tolgano agli uomini i simboli essi tenderanno, in un tempo più o meno lungo, a ricrearli su archetipi fondamentali. Il simbolo (dal greco “sumbolon”, cioè “metto insieme”) diviene quindi un forte mediatore culturale tra esigenza storica e dimensione mitopoietica.
Fatte queste premesse che non sono altro che constatazioni empiriche di sociologia si può supporre che anche il transumanesimo (in seguito, anche H+) e l’estropianesimo necessitino di un substrato culturale di tipo simbolico, che idealizzi il contenuto tramite un’azione di tipo mitopoietico in cui alla “magia” è sostituita la “scienza” e al “mago” (operatore simbolico) lo “scienziato”/”tecnologo”.Anche nel più generale discorso “futurizzante”, cioè nell’ottica di un “agire futurizzante”), sarebbe forse utile introdurre un elemento simbolico (http://www.transtopia.org/symbolism.html), magari di natura multimediale, cioè un “meta simbolo” capace di attivare i contenuti sociali archetipali e quindi più potenti. Alcuni tentativi sono già stati fatti; ad esempio, nelle arti grafiche, dall’estropista Natasha – Vita More (http://www.natasha.cc/), oppure nella musica con alcuni generi di musica, per esempio la “Tekno” .
Tale movimento si chiama “transtopia” è ha come simbolo il “serpente metallico” rappresentato in queste pagine. In pratica, si tratta di un tentativo di “contaminare” l’ H+ con il simbolismo.
Alla parte “simbolico rappresentativa” sarebbe anche utile far seguire una mitopoiesi finalistica di tipo estropico, una sorta di “tecno . gnosi futurizzante” che indichi all’umanità una meta finale, un obiettivo, uno scopo concreto e socialmente condiviso (vedi, ad esempio, la ‘teoria del punto omega’ del fisico Franck Tipler – e del gesuita e scienziato Pierre Theilard de Chardin).In definitiva, visti da un punto sistemico, questi non sono altro che tentativi di istituire una nuova metafisica, articolata sulla scienza e tecnologia che, esteriormente sia caratterizzata da profondi significati simbolici ed interiormente da una visione teleologica di un “obiettivo finale”.
In questa ottica poi, come abbiamo già detto, il “turbo capitalismo ad innovazione continua”, cioè il “capitalismo esponenziale” che reinveste ed innova lamarkianamente (cioè in maniera ‘mirata’) il proprio prodotto su se stesso può essere il veicolo economico ed il substrato realizzativo della visione H+.
Immagini tratta dal sito http://www.transtopia.org/
Da tempo era stato annunciato l’ambizioso progetto USA di rimandare l’Uomo sulla Luna (dopo la conquista avvenuta il 20 luglio 1969) e la data proposta era stata quella del 2020 (dopo una prima missione alla stazione spaziale orbitante nel 2014). Ora (agosto 2007), tale promessa, viene corroborata ed inverata da un sostanzioso programma finanziario che il Presidente George W. Bush ha messo a disposizione della NASA.
Il nuovo Programma spaziale si chiamerà “Constellation” (con un budget di 10.5 miliardi di $), mentre è già pronto anche il nome della nuova navicella, “Orion” con razzo propulsivo “Ares” (“Marte”, nella mitologia greca).
La costruzione abbinata di Orion ed Ares (equivalenti di Apollo e Saturno nel programma di missione lunare precedente) sarà affidato alle più importanti aziende del settore aeronautico, tra cui, naturalmente, primeggia la Boeing (che ha già annunciato assunzioni per centinaia di posti di lavoro nella zona disastrata dall’uragano Katrina di New Orleans). La somma messa a disposizione sarà una da 515 milioni di dollari (prima tranche) per la fase sperimentale e l’altra da 610 milioni di $ per la fase di produzione (sono previsti 6 esemplari l’anno del missili Ares), per un totale di circa 1, 1 miliardi di $.
Il maggior contratto l’ha vinto lo scorso anno la Lockheed Martin (7.5 miliardi di $) per la Orion, mentre 1.8 miliardi di $ vanno al Gruppo Alliant per i razzi Ares con tecnologia della Pratt&Whitney che costruì i razzi Saturn per le missioni Apollo che portarono l’Uomo sulla Luna.
Sarà una coincidenza, ma la ripresa dei Programmi spaziali USA coincide con la nuova politica spaziale cinese (partita nel 2004 con il satellite Chang -1 e con il vettore “Lunga Marcia”) ad ulteriore dimostrazione che la “competizione” è probabilmente la principale molla che spinge una nazione a dedicarsi alla conquista dello spazio.
Infatti pare che, alla contrapposizione ideologica tra URSS ed USA che fu il vero carburante della conquista della Luna nel secolo scorso si sia sostituita, dopo quasi 40 anni, la contrapposizione economica tra USA e Cina.
La ripresa della corsa alla conquista dello Spazio non può che fare piacere ad un movimento, come quello Futurizzante, che fa dell’esplorazione dello spazio una delle priorità tecnologiche per il futuro.
Lo sbarco del 2018 è solo una prima tappa di un programma spaziale più ambizioso che dovrebbe portare alla creazione di una base lunare stabile da cui poi far partire missioni planetarie il cui più probabile obiettivo è il pianeta Marte.
Una volta raggiunto Marte e creata una base permanente un’ipotesi plausibile è quella di “terra formare” il pianeta rosso, rendendolo, appunto, simile alla nostra Terra.
Ad esempio, vi sono già studi per creare un “effetto serra” artificiale sul pianeta in modo da far sciogliere parte delle calotte polari marziane e liberare così l’acqua ivi racchiusa.
Inoltre, l’aumento medio della temperatura, permetterebbe di ricreare un clima marziano molto più simile a quelle terrestre.
Vi possono essere molti modi di classificare una società, secondo la tecnologia, secondo le forme di governo, secondo le religioni dominanti e… secondo l’energia di cui dispongono.
In questa ottica il fisico russo Nikolai Kardashev, nel 1964, propose, nell’ambito di una possibile caratterizzazione della civiltà extraterrestri di utilizzare come parametro l’energia che esse riuscivano ad utilizzare.
Vediamo quindi le categorie proposte.
CLASSIFICAZIONE SECONDO IL CONTENUTO DI ENERGIA
CIVILTA’ DI TIPO 0
Non hanno ancora sviluppato forme di vita, neppure microbiche e quindi sono, per definizione, incapaci di utilizzare energia.
CIVILTA’ DI TIPO I (10^16 Watt)
Sono civiltà che hanno imparato a sfruttare le fonti di energia planetaria. Esse sono infatti in grado di utilizzare tutta l’energia che giunge loro dalla propria stella, tipicamente 10^16 Watt. E’ probabile che una tale tipo di civiltà resti ancora sul suo pianeta per secoli, per risolvere problemi di tipo sociale e politico, prima di prendere la “strada delle stelle”. Dato l’alto costo dei voli spaziali (attualmente per una missione Shuttle 800 milioni di $) è probabile che una tale civiltà si limiterà ad un “ascensore spaziale” a nanotubi tra la Terra ed un satellite in orbita geostazionaria (36.000 Km).In seguito, con la costante diminuzione dei costi dei voli spaziali si potrebbe “terra formare” Marte, creando un “effetto serra” artificiale immettendo metano nell’atmosfera marziana; l’aumento della temperatura scioglierebbe i poli e quindi si avrebbe a disposizione acqua. Ma forse è più probabile che tale tipo di civiltà si dedichi a missioni interplanetarie con motore ibrido solare – ionico al Cesio).Entro 100 anni dal raggiungimento del Tipo I potrebbero inviarsi sonde con un autoreattore a fusione che raccoglie idrogeno dallo spazio.
CIVILTA’ DI TIPO II (10^26 Watt)
Sono civiltà che hanno esaurito le energie planetarie e che hanno imparato ad utilizzare direttamente quelle della propria stella, mediamente un flusso di circa 10^26 Watt. Questo tipo di civiltà può controllare i brillamenti solari e sono capaci di fare “accendere” nuove stelle.
Ha colonizzato parte della galassia. Il fisico Freeman Dyson ha ipotizzato che un tale tipo di civiltà potrebbe costruire un “guscio” intorno alla sua stella (“sfere di Dyson”) per poterne utilizzare tutta l’energia da fusione. Tali sfere emetterebbero una radiazione caratteristica nell’infrarosso che potrebbe essere individuata nello spazio. Una civiltà di questo tipo colonizzerebbe il sistema solare ed utilizzerebbe propulsori materia/antimateria per viaggi interstellari, facendo raggiungere velocità prossime a quelle della luce. Un tale tipo di civiltà controllerebbe il clima, le meteore e potrebbe salvarsi dall’esplosione di una supernova migrando o interferendo nel suo cicli nuclearmente.
CIVILTA’ DI TIPO III (10^36 Watt)
Sono civiltà che dispongono dell’energia del proprio sistema solare e di parte delle stelle della propria galassia, circa 10^36 Watt.
A tali livelli di energia si può rendere instabile lo spazio – tempo .Tale tipo di civiltà, con buona probabilità, colonizzerebbe la propria galassia; ad esempio, per la via lattea (diametro: 100.000 anni luce, a.l.) l’ “onda di colonizzazione” si sposterebbe alla velocità di circa 0.02 a.l. / anno ed in 5 milioni di anni giungerebbe ai suoi estremi confini. Il radiotelescopio di Arecibo ha tentato di individuare emissioni da Civiltà di Tipo III sulla lunghezza d’onda di 1.42 Giga Hertz (che è la riga dell’idrogeno gassoso), ma non vi è traccia di essa nel range tra 10^18 e 10^30 watt, inoltre avrebbero potuto usare una frequenza di trasmissione diversa.
CIVILTA’ DI TIPO IV (maggiore di 10^46 Watt)
Questa classe è stata aggiunta dal fisico americano Michio Kaku, City College di New York.Tale tipo di civiltà sarebbe in grado di utilizzare la cosiddetta “energia oscura”, circa il 73% dell’energia totale dell’universo; tale fonte è enorme ma estremamente diluita (a bassissima densità).
Tale tipo di energia è antigravitazionale ed è quella che sta accelerando l’attuale espansione dell’Universo. Tale quantità di energia renderebbe lo spazio – tempo estremamente instabile.
Nota 1
Ogni civiltà differisce dal tipo inferiore (o superiore) per un fattore energetico pari a 10 miliardi
Nota 2
Nella classificazione di Kardashev la nostra civiltà sarebbe circa a livello 0.7, cioè 1000 volte più piccola, in termini di produzione di energia, di una civiltà di tipo I.
Nota 3
Carl Sagan ha proposto, per un migliore utilizzo pratico, anche una sottocatalogazione e cioè, ad esempio, civiltà di tipo I.1 = 10^17 Watt, I.2 = 10^18 Watt…fino a I.10
Nota 3
Internet è un sistema telematico emergente tipico di una civiltà di Tipo I
Nota 4
Con buona probabilità una civiltà di tipo I sarà dominata da blocchi commerciali (come attualmente USA, UE, Cina), piuttosto che da singole nazioni.
Dunque, come abbiamo visto, una civiltà si può caratterizzare in base all’energia che ha a disposizione per evolversi.
Nota 5
Basandosi sulla nota “equazione di Drake” si può stimare che, solo nella nostra galassia, esistano tra le 10.000 e 1.000.000 di civiltà in grado di inviare segnali radio.
CLASSIFICAZIONE SECONDO IL CONTENUTO DI INFORMAZIONE
Tuttavia, il già citato Carl Sagan, propose anche un altro modo di catalogare le eventuali civiltà cosmiche.
In base al contenuto di informazione posseduto. Così una civiltà di tipo “A” elabora 10^6 bit (civiltà primitiva, priva di lingua scritta).L’introduzione della scrittura fa “esplodere” il contenuto informativo di una civiltà. Ad esempio, l’intero patrimonio culturale dell’antica Grecia corrisponde a circa 10^9 bit di informazione e quindi ad una civiltà di tipo “C”.
Sagan, valutando la quantità di informazione della nostra civiltà, includendo libri e foto giunse al valore di 10^15 bit (solo libri: 10^13) e quindi la nostra civiltà è, secondo tale modalità, di tipo “H”.
Unendo i due tipi di classificazione e cioè quello di Kardashev e quello di Sagan, potremmo affermare che la nostra civiltà è di tipo 0.7H.
Nota 5
Si osservi che, in realtà, i due tipi di classificazione non sono completamente indipendenti. E cioè Energia e Bit sono collegati in quanto per elaborare informazione occorre energia.
Nota 6
C. Sagan ipotizzò che un primo incontro con una eventuale civiltà extraterrestre possa avvenire almeno nel range classificatorio 1.5J – 1.8K, perché solo in tale intervallo una civiltà è capace di voli stellari.
Nota 7
La classificazione energetica delle possibili civiltà fu introdotta appunto nello scorso secolo per avere un criterio che permettesse di individuar e una eventuale civiltà extraterrestre in funzione di una “radiazione caratteristica” di quella civiltà e quindi si potesse dirigere con un criterio la ricerca radioastronomica radiativa.
Nota 8
Nella nostra civiltà, la crescita del PIL medio mondiale è dell’ordine dell’ 1.5% annuo e quindi questo sarà, grosso modo, il “tasso di crescita” energetico mondiale, in assenza di significativi “disaccoppiamenti” tra PIL ed Energia. Considerando, in prima approssimazione e per semplicità, costante tale valore possiamo fornire una stima del tempo necessario perché la nostra civiltà passi dal valore attuale 0.7 a quello 1.0 e cioè aumenti di 1000 (10^3) volte la sua energia utilizzata.
Quindi possiamo fare uno scenario (Michio Kaku) con un range di crescita del PIL mondiale compreso tra l’1% e il 2% annuo.
Società di Tipo I: 100 – 200 anni
Società di Tipo II: 1000 – 5000 anni
Società di Tipo III: 100.000 – 500.000 anni.
Si noti che la fase più critica è proprio quella della transizione ad una civiltà di Tipi I.
Infatti la stessa tecnologia (energia nucleare, nanotecnologie, inquinamento) potrebbero distruggere la società stessa (Sir Martin Rees, professore di cosmologia al Trinity College, Cambridge, UK), stima al 50% la possibilità che la nostra società si auto distrugga nel passaggio dal livello 0.7 a quello 1.0).
Bibliografia