x
Titolo


  FB   TW   whatsapp

Free space for free expression in english & italian

Established
1999
Managed by
F.Brunelli

social social social social print

Futurizing

Il tempo nella teoria della relativita'

Il Signore è sottile, ma non malizioso (Albert Einstein)

INTRODUZIONE
Prendo lo spunto dal mio libro da poco pubblicato Storia naturale del Tempo.L’Effetto Einstein e la Fisica del futuro  per offrire al lettore alcune considerazioni su un concetto solo apparentemente semplice ed intuitivo. La storia del concetto di  “tempo” è particolare, divisa com’è tra la Fisica e la Filosofia, per non parlare poi della Religione e delle inevitabili citazioni di Sant’ Agostino (che opportunamente evito). Tempo (e spazio) sono esperienze basiche per l’Uomo. Premetto che in questo articolo parlerò esplicitamente del “tempo”, ma che, trattandosi di concetti strettamente correlati, è sempre sottinteso che esiste un’analoga trattazione per lo “spazio”. Considerando poi che utilizzeremo principalmente concetti relativistici ogni qualvolta parlo di tempo occorre intendere lo “spaziotempo”.Ma cos’è il tempo?
Il tempo, intuitivamente è legato a qualche forma di “cambiamento” non strettamente spaziale; anzi potremmo definirlo come la misura di un “cambiamento continuo” e secondo la filosofia senza cambiamento non c’è neppure  tempo.Ma cambiamento di cosa? Cambiamento della posizione del sole e delle stelle, della luna, delle stagioni o, in maniera più raffinata, del proprio stato psicologico, del proprio sentire? Queste considerazioni ci portano naturalmente ad una prima distinzione tra “tempo oggettivo” che è possibile misurare strumentalmente ed è uguale per tutti gli osservatori e un “tempo soggettivo”, che, per sua definizione, non è misurabile (ma confrontabile). In questo articolo vogliamo occuparci più propriamente del tempo oggettivo, cioè di quello che utilizza la scienza.
I modi per misurare il tempo, eventi astronomici, clessidre, meridiane, orologi fanno parte della storia della tecnologia.Per quanto riguarda invece la Fisica il discorso è più complesso perché una vera “Fisica temporale” nasce , in senso moderno,solo con i primi esperimenti e quindi  se si eccettua qualche eccezione greca, con Galileo Galilei.Allora si comincia ad avvertire la necessità di quantificare esattamente il tempo non solo a fini sociali, ma anche appunto più propriamente scientifici e quindi con una maggiore rigorosità.Ad esempio, la nozione di velocità vista come il cambiamento dello spazio rispetto al tempo (e in seguito quella di accelerazione vista come il cambiamento della velocità rispetto al tempo) apre la strada a questa nuova concezione. A ben considerare è proprio l’analisi differenziale di Newton e Leibnitz che propone quello che diverrà poi un vero e proprio paradigma: una visione della Fisica in cui il tempo è  il parametro privilegiato di riferimento a cui rapportare la variazione delle altre grandezze fisiche coinvolte nella descrizione di un fenomeno
 .
Infatti la seconda equazione di Newton, la celeberrima
(1)F = MA
permette di determinare istante per istante la posizione di un corpo di massa M sottoposto ad una accelerazione A una volta nota la forza F e le sue condizioni iniziali. In pratica potremmo dire che tutta la Fisica dal XVII secolo in poi è basata sul concetto di tempo anche se, ad esempio, per l’equazionecosmologico-quantistica di Wheeler-DeWitt (o WdW) si è parlato di “fine del tempo” e possibilità di descrivere una fenomenologia senza ricorrere (almeno esplicitamente) a tale parametro.Ma torniamo al tempo classicamente inteso.Una volta instauratosi nella Fisica grazie a Galilei e a Newton il nostro parametro si rafforzò viepiù nei secoli successivi divenendo uno dei punti fermi della descrizione fisico-matematica dei fenomeni.Infatti, come già accennato,tutto il settecento e l’ottocento è un fiorire di equazioni differenziali ordinarie e alla derivate parziali che lo vedono da protagonista (quasi) solitario.Il tempo è anche il parametro fondamentale (rispetto a cui variano il campo elettrico e magnetico) delle equazioni di Maxwell.E così giungiamo al XX secolo.Questo secolo risulterà, come noto, assolutamente innovativo per la nostra concezione dell’Universo.Infatti, proprio al suo inizio, fanno la loro comparsa due teorie che rivoluzioneranno non la sola Fisica, ma l’intera scienza e anche il modo di pensare in generale della società: la Teoria della Relatività Ristretta (RR), la Teoria della Relatività Generale (RG) e la Meccanica Quantistica (MQ). Per quanto riguarda il tempo la MQ lo vede come un paramentodi evoluzione di un sistema,  importante  ma non così determinante come è invece nella Fisica newtoniana; infatti per l’equazione di Schrödingerè più importante conoscere gli auto-valori dell’energia che la sua evoluzione temporale. Completamente diverso è il caso delle Relatività: infatti in esse il tempo cessa di essere solo un parametro evolutivo per divenire il centro dell’interesse stesso della teoria.Possiamo dire,  che con le teorie di Einstein, il tempo diviene attore primario della Fisica non solo come parametro evolutivo , ma anche come “oggetto” del sapere stesso (e quindi acquisisce una dimensione filosofica ontologica, ma supportata da elementi quantitativi). Come noto, a partire dalla RR del 1905 lo spazio e il tempo smettono di essere enti separati per divenire un concetto unificato: lo spaziotempo (senza trattino) che compie il “miracolo” di unire grandezze che fino ad allora erano state considerate come completamente separate. Lo spaziotempo fa il suo ingresso nella RR ed è il portato matematico delle equazioni di trasformazione di Lorentz che “mischiano” appunto sia il tempo che lo spazio in un tutto unico.Lo spaziotempo della RR è, come noto, “piatto” o pseudo-euclideo (l’aggettivo pseudo è riferito alla distanza non definita positiva nello spaziotempo di minkowski) mentre lo spaziotempo della RG, completata nel 1915, è “curvo” (ed è incurvato, sostanzialmente, dall’energia/massa).
Il fatto di aver promosso, nelle Relatività,  lo spaziotempo a protagonista della Fisica apre scenari assai interessanti ed intriganti.Come il moto è “relativo” anche il tempo e lo spazio sono relativi e quindi cessano di essere concetti “assoluti” come li considerava Newton e tutta la Fisica fino ai primi anni del novecento.E se sono concetti relativi possono avere valori diversi a seconda dei diversi osservatori, in moto, in “quiete”, accelerati o sottoposti ad un campo gravitazionale. Dunque questo apre la strada ad un filone che inizialmente fu guardato con sospetto dai fisici professionisti: quello dei “viaggi nel tempo”.Ormai, dopo che se ne sono occupati fisici del valore riconosciuto come Kip Thorne, Roger Penrose, Paul Davies e (anche se criticamente) Stephen Hawking la materia pare definitivamente sdoganata.Infatti è sperimentalmente noto che il tempo “rallenta” per un osservatore in moto rettilineo uniforme rispetto ad un altro (ma la cosa è reciproca!) e che il tempo rallenta per  chi si trova immerso in un campo gravitazionale. Da notare come l’effetto sia reciproco in RR –tra i due osservatori inerziali-, cioè per tutti e due il tempo rallenta, ma non lo sia in RG dove per l’osservatore in un campo gravitazionale il tempo rallenta (rispetto a quello esterno), ma per quello esterno il suo tempo accelera. In questo articolo dunque ci occuperemo solo del tempo relativistico; tuttavia, in Fisica, esiste un altro interessante modo di studiarlo (e definirlo) e cioè quello della termodinamica e della “freccia del tempo” indicata dal Secondo Principio e quindi dall’aumento dell’entropia.
IL TEMPO NELLA TEORIA DELLA RELATIVITA’ RISTRETTA
Nella RR il tempo scorre diversamente per due osservatori inerziali in moto uno rispetto all’altro. Come già detto, proprio l’essenza stessa della Relatività impone che tale fenomeno sia reciproco e simmetrico.L’osservatore considerato in moto (ripetiamo che si tratta sempre di una scelta di pura convenzione) avrà sempre un tempo che scorre più lentamente e precisamente:
(2):::Desktop:785822ad0d53c17c04fd8f1008b38743.png

Dove Δt è l’intervallo di tempo misurato nel Sistema di Riferimento in cui è l’orologio è in quiete (tempo proprio)  e Δt' è l’intervallo di tempo misurato nel Sistema di Riferimento in cui l’orologio si muove con velocità v. Dunque risulta che in OGNI Sistema di riferimento il tempo “scorre più lentamente” perché il fattore gamma per v < c è sempre maggiore di 1 e quindi Δt' > Δt (la durata è maggiore).
IL TEMPO IN RELATIVITA’ GENERALE
La RG nasce per ampliare a tutti gli osservatori (anche a quelli in moto accelerato e non solo rettilineo uniforme, come avviene in RR) l’invarianza delle leggi della Fisica.Facendo questo lo spaziotempo pseudoeuclideo della RR diviene una varietà di Riemann curva.Lo strumento matematico atto a studiare tale geometria (differenziale) è il calcolo differenziale assoluto di Levi-Civita e Ricci-Curbastro.Applicando tali strumenti Einstein (ed Hilbert che però gli riconobbe la primogenitura) giunge a scrivere le famose equazioni di campo  che sono:

(3)image
ove:
image è il tensore di curvatura di Ricci, image è un numero detto curvatura scalare,  image è il tensore metrico (che servirà poi, una volta sostituito nelle equazioni del moto a determinare la dinamica), image è un termine chiamato “costante cosmologica” è che fu introdotto e poi tolto (ed oggi rimesso) nelle equazioni di campo da Einstein per ottenere un Universo in equilibrio,  image è il tensore energia-impulso, c la velocità della luce e G la costante di Newton, π è il rapporto tra la lunghezza della circonferenza e il diametro.
Le (3), dal punto di vista puramente matematico, rappresentano un Sistema di equazioni differenziali alle derivate parziali, non lineari, nelle componenti del Sistema metrico image e in 4 variabili indipendenti (x,y,z,t).Poiché si può scegliere, senza perdere di generalità, il tensore metrico in modo che sia simmetrico, delle 16 componenti originali (4X4) ne restano solo 10 indipendenti-
Una volta trovate le funzioni incognite occorre risolvere le equazioni del moto che sono date dalle geodetiche della varietà di Riemann e cioè:
image
(4)
dove:
le x sono le coordinate del punto in moto e le quantità Γ sono legate proprio ai valori della metrica  imagedeterminata dalle equazioni (3).
In RG si possono utilizzare diverse formule per calcolare le dilatazioni temporali.Esaminiamo diversi casi:
I) Per un osservatore in moto accelerato uniforme (che, grazie al Principio di equivalenza) è identico ad un campo gravitazionale localmente uniforme) si ha:
(5)image
dove g è l’accelerazione (costante), h è la distanza tra un osservatore accelerato (o in un campo gravitazionale equivalente) e un osservatore in quiete (o in assenza di campo gravitazionale), c la velocità della luce.Quindi per un osservatore in moto accelerato (o in un campo gravitazionale) il tempo rallenta mentre, viceversa, per un osservatore in quiete (o in assenza di campo gravitazionale), il tempo accelera.
II) Nel caso invece gravitazionale di una massa m non rotante e di raggio r, utilizzando la metrica di Schwarzchild, si ha:
(6) IMAGE
dove t’ è il tempo misurato all’interno del campo gravitazionale (“tempo proprio”), t è il tempo misurato all’esterno del campo gravitazionale, r la distanza dal centro di massa, m la massa che genera il campo gravitazionale, c la velocità della luce nel vuoto e G la costante di gravità.

 

 

La (6)  sviluppata al primo ordine dà:

 

(7)IMAGE

dove IMAGE è il cosiddetto raggio di Schwarzchild
Nel caso della (7) la formula non è “invertibile” tra i due osservatori, interno ed esterno al campo gravitazionale, come è invece la (2).
Naturalmente anche le lunghezze sono contratte sia in RR che in RG e precisamente valgono le:
(8a)image

 

(8b)IMAGE

CONSIDERAZIONI GENERALE SULLA DILATAZIONE TEMPORALEE SULLA CONTRAZIONE SPAZIALE
Occorre soffermarsi su un altro punto della questione; la dilatazione temporale in RR è , in un certo senso, meno intuitiva da capire di quella in RG. Infatti, in RR la contrazione ha natura sostanzialmente cinematica, mentre in RG si tratta di una vera e propria deformazione geometrica dello spaziotempo. Dunque si tende a capire più facilmente il fatto che le masse contraggano lo spazio e dilatino il tempo proprio perché è la struttura geometrica stessa che subisce deformazioni cosa che non è altrettanto evidente in RR.
I VIAGGI NEL TEMPO
I viaggi nel tempo sono un tema molto di frontiera della fisica contemporanea e –possiamo dirlo-sdoganati da poco grazie all’interesse di fisici molto influenti come Stephen Hawking, Kip Thorne, Paul Davies,Roger Penrose (per citare i più rilevanti) anche se un esempio matematico completo fu scoperto nel 1949 dal logico Kurt Gödel .Tale possibilità deriva proprio dal fatto che grazie alle formule precedenti la durata temporale degli osservatori in moto e sottoposti alla gravità sono differenti da chi non  le sperimenta.La RR permette viaggi nel futuro (tralasciamo le possibilità teoriche di comunicare con i tachioni) mentre la RG permette viaggi nel passato e nel futuro (nel caso di loopspazio–temporale in cui però si può tornare indietro nel tempo fin solo al momento della creazione della macchina oppure al momento della creazione naturale del loop; questo, curiosamente, segna anche una differenza rilevante tra la possibilità di accedere ad un futuro virtualmente illimitato ed un passato invece limitato).I viaggi nel tempo dunque sono teoricamente possibili, ma restano da esaminare due aspetti di essi; il primo è la generazione di paradossi quando si ammette la possibilità di tornare/comunicare col passato e la seconda è la fattibilità tecnologica di questi viaggi. La problematica tecnica è solo una questione di tempo e risorse mentre quella dei paradossi è particolarmente complessa. Il paradosso principale che sorge è chiamato “paradosso del nonno”.Un crononauta torna nel passato e uccide suo nonno.Ma se lo uccide non può essere nato e neppure tornato ad ucciderlo.Spiegazioni proposte sono principalmente due.La prima fa ricorso alla MQ e specificatamente alla Interpretazione a Molti Mondi di Hugh Everett III; quando il viaggiatore del tempo uccide il nonno l’universo si separa in due storie: in una il nonno è effettivamente ucciso e nell’altra no.Dunque il viaggiatore si troverà nel secondo universo e non ci saranno contraddizioni logiche.La seconda spiegazione è il principio di autoconsistenza di Novikov; il crononauta torna nel passato tenta di uccidere il nonno, ma un passante si frappone e rimane ucciso al posto suo.Il “nipote” ricorda che il nonno gli narrò questa esperienza e come un passante gli abbia involontariamente salvato la vita.
CONCLUSIONI
Il tempo forse ancor più dello spazio ha sicuramente un fascino particolare per l’Uomo; la Relatività ci ha mostrato che esso non è immutabile, ma che anzi esso può essere alterato utilizzando la velocità, l’accelerazione o la gravità cioè grandezze fisiche ben note. La logica e la Meccanica Quantistica ci offrono anche delle possibili soluzioni ai paradossi che inevitabilmente si generano in queste situazioni. La tecnologia in un lontano futuro forse potrà costruire macchine che realizzino questo antico sogno dell’Uomo: il controllo del tempo.
BIBLIOGRAFIA
Davies P., Come costruire una macchina del tempo, Mondadori, Milano. 2003.
Dorato M., Che cos’è il tempo? Einstein, Gödel e l’esperienza comune, Carocci editore, Roma, 2013.
Haidegger M., Essere e Tempo, Longanesi, Milano, 2005. 
Hawking S., Penrose R., La natura dello Spazio e del Tempo.Come capire l’incomprensibile., Biblioteca Scientifica Sansoni, Milano, 1996.
Orilia F., Filosofia del tempo.Il dibattito contemporaneo, Carocci editore, Roma, 2012.
Thorne K., Buchi neri e salti temporali.L’eredità di Einstein, Castelvecchi, Roma, 2013.
Vatinno G., Il Nulla e il Tutto.Le meraviglie del possibile, Armando Editore, Roma, 2012.
Vatinno G., Storia naturale del Tempo.L’Effetto Einstein e la Fisica del futuro, Armando Editore, Roma, 2014.

Questo è vero per le equazioni differenziali ordinarie della dinamica newtoniana (corredate di condizioni iniziali), ma anche per le equazione alle derivate parziali (corredate di condizioni al contorno) della conduzione del calore e delle onde, che coinvolgono contemporaneamente le variabili spaziali e temporali.

In realtà il tempo c’è ma è “nascosto”; infatti, il funzionale d’onda non contiene esplicitamente il tempo in una geometria dello spaziotempo “congelata”, ma il tempo stesso compare appena ci si chiede quale sia la probabilità di trovare un’altra geometria a partire da quella iniziale.

Risolvendo le equazioni di campo di Einstein per un sistema fisico rappresentato da un fluido perfetto rotante con una velocità costante Gödel trovò una particolare metrica che genera delle strutture chiamate CTC (Closed Timelike Curve) che permettono di raggiungere zone del passato semplicemente spostandosi su traiettorie spaziali.

La situazione della fisica teorica la gravità quantistica di Carlo Rovelli

Il sogno della Fisica è sempre stato quello di avere una teoria unificata.Esistono infatti quattro forze: quella gravitazionale, quella elettromagnetica, quella nucleare forte e quella nucleare debole.Attualmente esistono delle teorie di Grande Unificazione (dette GUT) che unificano tutte le forze tranne la gravità con la speranza di poterle unificare tutte e quattro in una finale Teoria del Tutto che ha nella Teoria delle Stringhe il principale candidato. Ma vediamo quale è la situazione delle più importanti teorie fisiche che abbiamo.La Meccanica Quantistica (MQ) funziona molto bene ed è in accordo con i dati sperimentali soprattutto nella cosiddetta QED, o Quantum Electrodynamics.Poi c'è la Relatività Generale che è una teoria della gravitazione che però non si riesce ad integrare con la MQ.
Naturalmente le teorie non sono "sbagliate" ma solo sol applicabili in determinati contesti limitati. Ad esempio, la RG funziona bene a livello cosmologico e ci permette di fare previsioni sull'Universo, ma quando compaiono fenomeni quantistici come nel caso della fisica di un buco nero oppure per la teorie del Big Bang non è più applicabile, come non più applicabile risulta essere anche la MQ. Dunque la necessità di una teoria unificata non è solo un fatto o un aspetto "estetico", ma corrisponde ad una ben precisa necessità sperimentale.E' dunque certo che la RG e la MQ siano solo teorie di passaggio verso una teoria finale più completa, ma non vuol dire che esse non funzionino bene nel loro campo applicativo.Oltre alla Teoria delle Stringhe vi sono interessanti e promettenti studi sulla cosiddetta Gravità Quantistica a loop che non ha l'ambizione di unificare tutte le forze fisiche ma solo la gravità e la MQ. In questa ottica si svolge il lavoro, assolutamente di punta, del fisico italiano Carlo Rovelli di cui abbiamo già parlato.Le conseguenze della gravità quantistica a loop sono una quantizzazione naturale degli fondamentali della Fisica: lo Spazio e il Tempo.

Storia della Fisica I

La Fisica sembrava essere una scienza ormai conclusa dopo che Isaac Newton aveva dato alle stampe, nel 1687, i suoi Philosophiae NaturalisPrincipia Mathematica. Infatti, questa grande opera dello scienziato inglese unificava la gravità terrestre e quella celeste sulla base delle osservazioni di Galileo Galilei e la pubblicazione del Dialogo sui due massimi sistemi del mondo del 1632.
La meccanica newtoniana servì da base per l'opera di Copernico prima e di Keplero poi che detronizzarono la Terra dalla sua posizione privilegiata per sostituirla con il Sole. Fu in questo contesto che da un lato le osservazioni sulla luce andarono avanti.Si cercò di misurarne la velocità grazie a Huygens, Roemer, Fizeau che risultò finita. In questo contesto gli studi di elettrostatica di Coulomb e poi di Faraday ed Ampere aprirono la strada all'altra grande opera della storia della Fisica e cioè il Trattato sull'elettricità e il magnetismo di Maxwell del 1873 a formalizzare tutto quello che si conosceva in quel tempo sul'elettricità ed il magnetismo in eleganti equazioni vettoriali.L'elettricità e il magnetismo erano ora unificati e in più si scoprì che la luce è una radiazione elettromagnetica.
Dunque, con la sistematizzazione dell'elettricità e del magnetismo sembrava che la Fisica fosse di nuovo completa nel suo quadro teorico e che si dovessero solo trarre ulteriori conseguenze teoriche e sperimentali, raffinandola progressivamente.
Tuttavia vi erano delle cose che non tornavano; le equazioni di Maxwell non erano invarianti per trasformazioni di Galilei, come invece lo era quella di Newton.Questo voleva dire che la meccanica newtoniana non andava d'accordo con l'elettromagnetismo di Maxwell oppure che valessero due Principi di Relatività separati: uno per la meccanica e l'altro per l'elettromagnetismo. Il Principio di Relatività dice sostanzialmente che tutti i fenomeni fisici sono gli stessi sia che avvengano in sistemi di riferimento in quiete sia che avvengano in sistemi di riferimento in moto rettilineo uniforme (sistemi inerziali) ed è dovuto, nella sua forma originale, a Galilei. Le equazioni di Newton lo rispettavano, ma le equazioni di Maxwell no. Le equazioni di Newton sono scritte rispetto ad un sistema di riferimento supposto in quiete assoluta ed anche quelle di Maxwell erano riferite a tale sistema che però prendeva il nome di "etere luminifero". Questa la situazione quando Lorentz, un fisico olandese, cercò delle trasformazioni di coordinate che rendessero formalmente le equazioni di Maxwell e le trovò (ora sono note con il suo nome).Queste equazioni di riducono a quelle di Galilei quando le velocità coinvolte sono piccole rispetto a quelle della luce che è di circa 300.000 Km/s e cioè praticamente in tutte le situazioni che noi sperimentiamo nella vita di tutti i giorni.Lorentz in queste trasformazioni utilizzò anche un artificio matematico che chiamò "tempo locale".
Nel frattempo anche il matematico francese Poincaré studiò il problema e giunse a considerazioni analoghe a quelle di Lorentz enunciando anche un Principio di Relatività esteso ora anche ai fenomeni elettrodinamici e non più solo meccanici.
Tuttavia, sia la teoria di lorenzi che quella di Poincaré sono riferite all' etere luminifero.Un esperimento famoso del XIX secolo, quello di Michelson-Morley, dimostrò che la velocità della luce era indipendente dallo stato di moto dei sistemi di riferimento e quindi o l'etere non esisteva o era trascinato dal moto della Terra.Altri esperimenti come quello di Fizeau ed osservazioni astronomiche come quello dell'aberrazione stellare inficiavano l'ipotesi dell'etere in movimento (anche parziale).Dunque l'etere non esisteva o non era rilevabile. Sia Lorentz che il fisico irlandese Fotzgerald avanzaronoallora l'ipotesi di una contrazione delle lunghezze in direzione del moto, la "contrazione di Lorentz-Fotzgerald" che dava conto dell'esperienza di Michelson-Morley senza intaccare l'ipotesi dell'etere; tale ipotesi aveva una sua base sperimentale negli studi sull'elettrone di Lorentz stesso.
E' in questo quadro che nel 1905 un oscuro fisico impiegato all'ufficio brevetti di Berna diede alle stampe vari articoli tra cui uno, Sull'elettrodinamica dei corpi in movimento che doveva cambiare per sempre la Fisica.Infatti, Einstein condensò e reinterpretò i lavori di Lorentz e Poincaré in quella che sarebbe divenuta la Teoria della Relatività Speciale.Einstein abolisce il sistema di riferimento assoluto, cioè l'etere, dicendo che non serve; tutti i moti rettilinei uniformi sono equivalenti e quindi le equazioni dell'elettrodinamica in cui compare ad esempio la velocità si devono intendere riferite a due sistemi in moto relativo.E' una rivoluzione concettuale di grande portata. La teoria della Relatività si chiama Speciale perché appunto vale solo per una particolare classe di sistemi di riferimento, quella dei sistemi inerziali; fu poi lo stesso Einstein che dieci anni dopo, nel 1915, produsse la Relatività Generale che invece è estesa a tutti i sistemi di riferimento (ed è anche una teoria della gravitazione). L'altra grande rivoluzione scientifica del XX secolo è invece quella della Meccanica Quantistica.
Infatti, l'edificio della Fisica classica newtoniana non era attaccato solo dal lato dell'elettromagnetismo, ma anche da quello atomico.Si era giunti ad un modello atomico con un nucleo positivo e degli elettroni negativi in orbita intorno al nucleo.Tuttavia vi erano alcuni problemi.Il principale era quello del spettro di corpo nero.Tutti gli elementi emettono radiazioni elettromagnetiche sotto forma di calore.La curva sperimentale di queste emissioni era molto diversa da quella teorica.Inoltre, non si capiva perché gli elettroni irraggiando nel loro moto intorno al nucleo non cadessero sul nucleo stesso. Fu così che il fisico tedesco Max Planck nel 1900 presentò la sua ipotesi che l'energia potesse esser scambiata sol in pacchetti discreti, appunto i quanti.Con questa ipotesi le formule tornavano.Nel 1905, Einstein, oltre che l'articolo sulla Relatività, scrisse anche uno sull'effetto fotoelettrico –per cui poi prese il Nobel- che riuscì a spiegare sulla base della ipotesi dei quanti di Planck.
L'effetto fotoelettrico si ha quando la luce urtando una superficie metallica di un conduttore riesce a strappare degli elettroni producendo una corrente elettrica.Tale effetto no nera spiegabile con le ipotesi classiche di una energia continua; in fatti, aumentando l'energia della luce incidente non aumentava l'energia degli elettroni estratti, ma solo illoro numero; inoltre esisteva una soglia di energia minima sotto la quale il fenomeno non avveniva.Solo l'ipotesi di una energia quantizzata poteva spiegare l'esito dell'esperimento. Inoltre, nel XIX secolo Fraunhofer aveva notato che la luce solare è solcata da sottili linee scure che sono dovute alla interazione tra la luce e la materia.Nel modello atomico, infatti, gli elettroni assorbono quanti di luce e si spostano di orbita; questo fatto è registrato dalle linee di assorbimento che sono tipiche di ogni elemento chimico.Anche questo fenomeno portava ad una visione quantizzata dell'energia.

I solitoni nella scienza e nella tecnologia

INTRODUZIONE

img
Fig. 1 Solitoni tridimensionali.

I solitoni o onde solitarie sono onde (a volte trattate anche come particelle) caratterizzate da un equilibrio tra gli effetti non lineari e quelli dispersivi(1) . Che si compensano esattamente.Essi emergono come soluzioni esatte di certe classi di equazioni (o di sistemi) alle derivate parziali, non lineari di evoluzione. La prima descrizione di un solitone è quella fornita dall'ingegnere britannico J. Scott Russell (1808 – 1882) che lo vide risalire l'Union Canal(lungo circa 51 Km in Scozia).

canale
Fig. 2 Una immagine dell' "Union Canal".

Riportiamo il brano originale(2):
"Stavo osservando il moto di un battello che veniva trainato rapidamente lungo uno stretto canale da un paio di cavalli, quando il battello improvvisamente si fermò; non altrettanto fece la massa d'acqua del canale che esso aveva messo in moto; essa si accumulò attorno alla prua del battello in uno stato di violenta agitazione, dopo di che mosse in avanti con grande velocità, assumendo la forma di una grande solitaria elevazione, un cumulo d'acqua arrotondato e ben definito che continuò la sua corsa lungo il canale, apparentemente senza mutamento di forma o riduzione di velocità. La seguii a cavallo lungo la sponda del canale e la superai mentre stava ancora procedendo ad una velocità di otto o nove miglia all'ora [14 km/h], ancora conservando il suo aspetto originario di circa trenta piedi di lunghezza [9 m] e un piede e mezzo (300-450 mm] in altezza. La sua altezza diminuì gradualmente e dopo un inseguimento di un miglio o due (2-3 km) la persi nei meandri del canale. Questo, nel mese di agosto del 1834, fu il mio primo casuale incontro con quel fenomeno bello e singolare che ho chiamato "Onda di traslazione".
In natura vi sono molti esempi di onde solitarie; oltre l'esempio idrodinamico descritto da Russell i solitoni sono tipici dell'ottica non lineare, di fenomeni atmosferici, geologici, delle telecomunicazioni, ma sono stati anche osservati nella descrizione matematica della propagazione di malattie.
I solitoni hanno specifiche proprietà dovute, come detto, all'equilibrio tra le due componenti non lineare (che tende a "concentrare" la forma d'onda) e dispersiva (che tende a "disfare" la forma d'onda). La prima è quindi che un solitone trasla senza quasi cambiare forma; un'altra proprietà assai interessante è poi in un urto tra due solitoni essi emergono identici, a meno di uno spostamento di fase (cioè un ritardo temporale) nelle onde che li descrivono matematicamente; cioè il loro urto è sempre elastico. Inoltre, la loro velocità è proporzionale sia all'altezza che alla larghezza, in pratica alla forma (shape) dell'onda stessa.Come detto i solitoni sono soluzioni esatte di certe classi di equazioni differenziali alle derivate parziali no n lineari; tra le più note ci sono: l'equazione Korteweg –de Vries (KdV) e le sue varianti (KdV regolarizzata, transazionale, cilindrica, sferica, modificata), l'equazione di Benjamin-Ono, l'equazione di Boussinesq, l'equazione di Burgers, l'equazione di Schrödingernon lineare, l'equazione del Boomerone (che presenta solitoni che non si muovono a velocità costante come nella KdV), l'equazione sine-Gordon, l'equazione di campo chirale, l'equazione ridotta di campo di Einstein e quella che regola i sistemi caotici di Fermi-Pasta-Ulam. Soffermiamoci su alcune di queste equazioni partendo dalla più nota e cioè l' equazione KdV.

John Scott Russell
Fig. 3 L'ingegnere britannico John Scott Russell

L'EQUAZIONE KDV
L'equazione di Korteweg - de Vries(3) fu scritta nel 1895 nel contesto della fluidodinamica ed è stata applicata anche nella fisica dei plasmi.Essa descrive la propagazione di onde in un canale rettangolare poco profondo (rispetto alla lunghezza del canale stesso) e cioè proprio il caso di quello in cui più di 60 anni prima Russell aveva visto la creazione dell'onda solitaria. C'è da dire che in questo lasso di tempo ci furono molte discussioni teoriche per cercare di interpretare il fenomeno registrato dall'ingegnere britannico e si metteva in dubbio che i solitoni potessero esistere realmente. La KdV dimostrò che i solitoni potevano esistere. Tuttavia, nel 1895 non c'erano strumenti matematici adeguati alla suo studio e così la KdV non venne considerata per molti anni e fu solo agli inizi degli anni '60 del XX secolo che fu riconsiderata in idrodinamica (dove era nata) e in Fisica dei plasmi e per il paradosso di Fermi-Pasta-Ulam. I primi calcolatori permisero di studiarenumericamente una catena unidimensionale di oscillatori accoppiati con i primi vicini in modo non lineare (quadrato o cubico).Sulla base dei principi della meccanica statistica ci si attendeva una progressiva stocasticizzazione del moto con apparizioni di frequenze sempre più elevate ed una diffusione dell'energia su tali frequenze (Principio di Equipartizione dell'Energia).La simulazione invece mostrava che se si partiva con una configurazione iniziale con l'energia concentrata nel modo normale più basso essa tendevaagli altri modi normali in tempi brevi, ma poi si mostrava una inattesa ricorrenza in cui l'energia era nuovamente concentrata quasi completamente nel modo iniziale.Nel tentativo di risolvere questo problema Martin Kruskal fu ricondotto allo studio della KdV che rappresentava una approssimazione continua della catena di oscillatori di Fermi, Pasta, Ulam. 

img

La cui soluzione solitonica è:

equa

Nella (1) si può osservare l’equilibrio tre il termine dispersivo (dovuto alla derivata terza) e quello non lineare. Dovuto al prodotto tra la funzione stessa e la sua derivata Si noti che esistono anche altri tipi di soluzioni della (1) che nonsono solitoniche.


L’EQUAZIONE DI BENJAMIN-ONO (BO)

img

Dove H è la trasformata di Hilbert. L’equazione BO è piuttosto una equazione integro- differenziale ed è stata introdotta per descrivere le onde interne in un fluido stratificato di  profondità finita.

L’EQUAZIONE DI BURGERS

img

Si può considerare una riduzione mono-dimensionale delle equazioni di Navier-Stokes ed è stata scritta per la prima volta nel 1950.

L’EQUAZIONE DI Schrödinger NON LINEARE

img

Questa equazione ha diverse applicazioni ad esempio nella fisica del plasma dove rappresentala propagazione di onde circolarmente polarizzate di Alfvén o di onde a radio-frequenze e, più in generale, descrive l’evoluzione temporale dell’inviluppo di un’onda quasi monocromatica di piccola ampiezza in un mezzo non lineare e debolmente dispersivo.

L’EQUAZIONE DI HIROTA

img

Questa equazione per a=c=d=0 e b=-1 ed η=+-1 diviene  la (5) e cioè l’equazione di Schrödinger non lineare ( se u è reale diviene una KdV modificata)

L’EQUAZIONE SINE-GORDON (SG)

img

L’ equazione SG si presenta in diversi campi, dalla geometria differenziale all’ottica non lineare dove dà conto del fenomeno della trasparenza autoindotta, alla superconduttività. Inoltre essa è stata studiata come modello di una teoria di campo (sia classica che quantistica) grazie alla sua invarianza relativistica.

I SISTEMI DI EQUAZIONI NON LINEARI ALLE DERIVATE PARZIALI, LA "TRASFORMATA SPETTRALE" E IL "METODO DELL'ACCOPPIAMENTO"
La fisica-matematica è stata dominata da due grandi tipi di equazioni differenziali; quella di Newton della dinamica che è una equazione differenziale ordinaria del secondo ordine (che è difficile risolvere esattamente nel caso generale) e le equazioni differenziali alle derivate parziali come l'equazione delle onde o del calore (ancor più difficili da risolvere).I sistemi di equazioni differenziali possono poi essere sia ordinari che alle derivate parziali e la loro difficoltà di risoluzione aumenta esponenzialmente nel caso non-lineare (in pratica è possibile risolvere solo casi molto particolari; a questo proposito l'esempio più calzante è quello delle equazioni di campo di Einstein in Relatività Generale). La difficoltà di risolvere esattamente tali sistemi ha portato a sviluppare metodi specifici.Il metodo standard di risoluzione delle equazioni differenziali alle derivate parziali lineari a coefficienti costanti è quello della Trasformata di Fourier (TdF).La generalizzazione non lineare della TdF è la Trasformata Spettrale (TS)(5) .Si è trovano infattidiverse classi di equazioni di evoluzioni non lineari alle derivate parziali che si sanno risolvere esattamente con la TS. La più semplice equazione di una certa classe è proprio l'equazione KdV. A questo punto è possibile estendere la tecnica della TS ai sistemi di N^2 equazioni differenziali non lineari alla derivate parziali e determinare poi un sotto-sistema di di M<N^2 di taliequazioni e ciò equivale a richiedere la compatibilità temporale delle variabili dipendenti ridotte da N^2 a M. Dunque si tratta di una sorta di problema di retro-ingegneria analitica in cui si conoscono le soluzioni (accoppiate) e si vogliono trovare le equazioni differenziali alle derivate parziali di origine.
Ad esempio(6) , si può scrivere una "KdV matriciale" fatta da N^2 equazioni KdV accoppiate.Nella mia tesi di laurea(7) mediante l'originale "metodo dell'accoppiamento"(8) , nel caso 2X2(9) , sono pervenuto ad una riduzione a sole due equazioni KdV accoppiate a cui erano state imposte le due soluzioni solitoniche, anch'esse accoppiate. Le equazioni risultano legate da una "costante di accoppiamento" che nel limite in cui tende a zero restituisce due KdV disaccoppiate. Associate ad esse ci sono poi infinite quantità conservate. Si nota poi che , con una ulteriore riduzione si ottiene una nuova equazione KdV modificata altamente non lineare.Tale metodo è poi stato usato nella ricerca per accoppiare casi di dimensionalità più elevata, come il 3X3.

img
Fig. 4 Le due KdV accoppiate sono le equazioni (32) della pagine riportata.Si noti che quando il parametro di accoppiamento g va a zero le due KdV si disaccoppiano completamente.

img
Fig. 5 La nuova equazione KdV altamente non lineare modificata che si ottiene dall' ulteriore riduzione.

CAMPI APPLICATIVI
Come detto, il campo in cui i solitoni trovano maggiori applicazioni è quello dell'ottica non lineare e specificatamente quello delle fibre ottiche dove le equazioni di Maxwell in coordinate cilindriche divengono equazioni di non lineari accoppiate di Schrödinger (prendendo il nome di sistemi di Manakov). In fisica teorica sistemi di solitoni sono utilizzati come soluzioni delle equazioni di Born-Infeld e in Ferromagnetismo i solitoni sono soluzioni delle equazioni di Landau-Lifschitz e del modello (continuo) di Heisenberg .In biologia sono utilizzati per descrivere il comportamento di Proteine e Dna; in neurologia sono soluzioni delle equazioni di trasmissione dei segnali neuronali.

BIBLIOGRAFIA
Bais S., Equazioni.Le icone del sapere, edizioni Dedalo, Bari, 2009.
Calogero F., Degasperis A., Specral Transform and Solitons I, Noth-Holland, Amsterdam, 1982.
Vatinno G., Riduzione di sistemi di equazioni di evoluzione, alle derivate parziali, non lineari, con il metodo della trasformata spettrale, Tesi di laurea, Facoltà di Fisica de La Sapienza, Roma, 1986.

 

1) Gli effetti dispersivi sono dovuti al variare della velocità delle onde al variare della loro frequenza.
2) J. Scott Russell. Report on waves, Fourteenth meeting of the British Association for the Advancement of Science, 1844. 
3) Diederik Kortoweg (1848-1941) era un fisico-matematico dell'Università di Amsterdam e fu allievo di Jhoannes Diederick Van der Waals (1837-1923); Gustav De Vries (1866-1934) fu suo allievo (poi insegnante nelle superiori) e proprio nella sua tesi di dottorato scrisse la famosa equazione. La tesi aveva il titolo: Bijdrage tot de kennis der lange golven, ("Contributo alla conoscenza delle onde lunghe").
5) Tecnicamente, l'utilizzo della TS per solitoni nel "problema diretto" porta a risolvere una equazione (lineare) di Schrödinger con un certo "potenziale" mentre nel "problema inverso" occorre risolvere l'equazione integrale lineare di Gel'fand-Levitan-Marchenko GLM (imponendo che il coefficiente di riflessione sia nullo).Tale tecnica è estendibile al caso matriciale (molto più complesso).
6) Tuttavia questo non è il caso più generale che si sa risolvere.
7) "Riduzione di sistemi di equazioni di evoluzione, alle derivate parziali, non lineari, con il metodo della trasformata spettrale", Tesi di laurea, Facoltà di Fisica de La Sapienza, Roma, 1986.
8) L'accoppiamento tra le equazioni come elementi di matrice deve essere necessariamente lineare perché l'equazione di riduzione è lineare.
9) In questo caso una base "naturale" per i calcoli matriciali è quelle delle matrici di Pauli.

Creatori di monopoli magnetici

imgE' noto che una calamita ha due poli magnetici: il nord e il sud; è altrettanto noto che spezzando una calamita non si possono creare due poli separati, ma si riottiene sempre una coppia nord-sud. Questo comportamento è fondamentalmente asimmetrico rispetto all'esistenza di due cariche elettriche, positiva e negativa, che esistono naturalmente separate.Questo comporta che le equazioni di Maxwell che descrivono l'elettromagnetismo siano asimmetriche perché mancanti della parte relativa alla "carica magnetica" o, appunto, monopolo magnetico.Ora, dopo la scoperta, queste stesse equazioni potranno cambiare considerando anche la controparte magnetica e diverranno estremamente simmetriche (cfr, ad esempio,http://www.vialattea.net/esperti/php/risposta.php?num=2231) prevedendo anche l'esistenza di "correnti magnetiche", a cui è già stato dato il nome di "magnetricità" in analogia con l'elettricità.; dal punto di vista grafico le linee di forza di Faraday per il campo magnetico ora possono pure intendersi aperte e non più chiuse.
Il fisico inglese e premio Nobel per la Fisica nel 1933, Paul Dirac li aveva predetti (cercando di spiegare la quantizzazione della carica elettrica) nel maggio del 1931 (lo stesso anno in cui ipotizzò l'esistenza -poi confermata-dell'antielettrone o positrone) riprendendoli poi in un lavoro del 1948: ora su Nature l'annuncio (cfr.http://www.nature.com/nature/journal/v505/n7485/full/nature12954.html) da parte del professor D. S. Hall (Amhrest College, Usa) e del ricercatore M. Möttönen (Università di Aalto, Finlandia), sulla scorta di un precedente lavoro pubblicato su Physical Review Letters del 2009 di Ville Pietilä e Mikko Möttönen del Politecnico di Helsinki,Finlandia (cfr http://prl.aps.org/abstract/PRL/v103/i3/e030401); i monopoli magnetici possono esistere e sono stati creati in un esperimento realizzato a livello internazionale e coordinato dall' Amhrest College nel Massachusetts, negli Usa.L'esperimento ha utilizzato un campo magnetico esterno per orientare gli spin di un gas di circa un milione di atomi di rubidio (bosoni a spin intero) prossimi allo zero assoluto che si trovano in un particolare stato della materia chiamato "condensato di Bose-Einstein" (per cui sono quantisticamente indistinguibili). In pratica non si è osservato direttamente un monopolo, ma i suoi effetti sulle particelle circostanti, cioè elettroni, in termini di creazione di linee di flusso magnetico in forma di "vortice" orientato (il che avviene proprio in presenza di un monopolo magnetico).L'esistenza dei monopoli permette -come detto-di spiegare anche un mistero insoluto della fisica fondamentale: la quantizzazione della carica elettrica (cioè in Natura una carica elettrica è sempre un multiplo della carica dell'elettrone). Infatti, Dirac propose una relazione tra la carica elettrica "e" e la carica magnetica "m": e.m = cnh/4π, ove c=velocità della luce, h=costante di Planck, π=3.1415… ed n è un numero intero.La "carica magnetica" è circa 70 volte più intensa della carica elettrica.
C'è da dire che i monopoli sono artificiali, nel senso che sono stati creati in laboratorio e già in passato c'erano stati tentativi in tal senso; basta ricordare il lavoro sugli "spin ice" (Titaniato di disprosio, Dy2Ti207) del professor Steven Bramwell dell'University College di Londra o sull'elio superfluido.Ma in questo esperimento l'evidenza è molto più chiara ed è supportata da simulazioni al computer che ne confermano la correttezza.
L'esistenza dei monopoli magnetici è prevista dalle teorie di Grande Unificazione (che uniscono la forza forte e quella elettro-debole) e dalla teoria delle Stringhe, una delle più serie candidate ad essere una Teoria del Tutto che unifica le quattro forze fondamentali della Natura e cioè la forza nucleare forte, quella nucleare debole (responsabile del decadimento beta), quella elettromagnetica e quella gravitazionale.Dirac è noto per la sua famosa equazione relativistica quantomeccanica dell'elettrone che è una generalizzazione di quella non relativistica di Schrödinger.Da notare che in Italia, presso i Laboratori del Gran Sasso, è attivo da anni l'esperimento Macro dell'INFN per individuare monopoli magnetici nei raggi cosmici, finora senza esito (http://www.lngs.infn.it/lngs_infn/index.htm?mainRecord=http://www.lngs.infn.it/lngs_infn/contents/lngs_it/public/educational/physics/experiments/past/macro/).
I monopoli magnetici "naturali", che sono molto pesanti, e si dovrebbero essere creati durante il Big Bang.Le ricadute tecnologiche sono possibili ed auspicabili principalmente nel settore dell'elettronica, ad esempio utilizzando i monopoli magnetici come memorie di massa atomiche.
(l'articolo è liberamente riproducibile citando la fonte:
www.giuseppevatinno.it)

Geometria e Fisica

IMGNell'immagine i tre tipi di geometrie possibili: ellittica, iperbolica e piatta
E’ molto interessante seguire la vicenda della nascita delle cosiddette “geometrie non-euclidee” perché segna il passaggio ad una diversa visione del mondo, anche in matematica. La geometria “classica” è nata nell’antica Grecia grazie ai lavori di Aristotele (ne “Gli analitici posteriori”) ed Euclide (ne “Gli Elementi”) e per circa 2000 anni è rimasta immutata fin quando i matematici del XIX secolo non si accorsero che il V Postulato contenuto negli “Elementi” di Euclide poteva essere negato senza che ciò producesse contraddizioni logiche nelle nuove geometrie che così si generavano.Il primo a realizzare questa ipotesi fu il matematico Carl Friedrich Gauss che temendo le "grida dei beoti" (presenti in gran numero anche in quei tempi) non la rese nota. Questo postulato afferma l’unicità della retta parallela ad un’altra e passante per un punto dato.Negandolo ci possono essere più  parallele o nessuna. Il matematico David Hilbert  cercò di assiomatizzare (con 21 preposizioni) la geometria (Grundlagender Geometrie ,“Fondamenti della Geometria”, 1899) e, in verità, il suo programma era quello di assiomatizzare tutte le scienze, a cominciare dalla fisica. Per quanto riguarda la geometria e più in generale l’aritmetica Hilbert si trovò smentito dai lavori del logico austriaco Kurt Gödel che con i suoi “teoremi di incompletezza” dimostrò che ciò non era possibile poiché anche in un sistema “semplice” come l’aritmetica elementare esisterà sempre almeno una proposizione (teorema) vero, ma non dimostrabile. Ma quale geometria è dunque quella “reale”? Grazie alla Teoria della Relatività Generale di Albert Einstein, possiamo dire che la “geometria” comunemente intesa è solo una branca della fisica e non della matematica.Infatti, lo spazio-tempo quadridimensionale del nostro universo (tre dimensioni spaziali ed una temporale) è deformato dai corpi (galassie, stelle, pianeti) e quindi la geometria dipende, in definitiva, dalla massa o meglio dalla densità dell’ intero universo. Più tecnicamente da un parametro e cioè dalla sua “curvatura”. Poiché l’universo pare (dalle osservazioni del satellite Planck) essere quasi “piatto” o leggermente a curvatura negativa possiamo dire che la sua geometria su vasta scala è quasi – euclidea o leggermente ellittica. Infatti possono esistere solo tre tipi di geometrie a curvatura costante: quella a curvatura negativa (o iperbolica ideata da NikolaiLobachevski e JánosBolyai, che contiene infinite parallele; l’universo si espanderà indefinitamente), nulla (Euclide, 1 sola parallela; l’universo si espanderà per sempre a velocità tendente a zero) o positiva (o ellittica ideata da Bernhard Riemann che non possiede parallele; l’universo collasserà su se stesso). La probabilità che sia proprio quella nulla (euclidea) è molto minore rispetto a quelle a curvatura positiva o negativa. In ogni caso esiste solo una geometria “vera” nel mondo fisico e le altre due possibili sono “errate”. Tuttavia non sappiamo ancora quale sia.E quelle “errate” a cosa servono? Diciamo che sono esplorazioni di strutture logico-matematiche alternative che però non corrispondono al mondo reale.

Tecnologia per la politica: il caso di "Liquid Feedback"


INTRODUZIONE
La Rete Internet si sta dimostrando sempre di più ilvero elemento vincente (“King Maker”) delle competizioni elettorali moderne, tanto da far stravolgere il concetto stesso di “campagna elettorale”. A supporto di queste affermazioni possiamo –ad esempio- pensare alle campagne elettorali del Presidente UsaBarack Obama o, restando addirittura nello specifico italiano, di Beppe Grillo e del suo Movimento Cinque Stelle.
Dunque sempre più in futuro, se non altro per motivi puramente anagrafici, la Rete acquisterà un ruolo assolutamente determinante nelle competizioni elettorali; pertanto, in una visione generale, occorre preparare una strategia di fondo comunicativa su Internet considerando anche che il rapporto qualità/prezzo è ormai non solo paragonabile a tradizionali mezzi di informazione come la Tv o la stampa, ma che proprio l’elementobidirezionale e interattivo è fondamentale percreare quelle condizioni di partecipazione dell’elettore che sono determinanti perl’aggregazione sociale e politica. Dunque è del tutto evidente l’importanza dei cosiddetto social network e dei siti blog. Si noti come questi siano due modelli comunicativi di base differenti anche  sesono possibili –ed auspicabili- “contaminazioni” tra i due. Il successo del M5S. ad esempio, è basato proprio sul “modello blog” mentre Obama si è basato sul “modello social network”. Si tratta di due modelli diversi che corrispondono aduna diversità di messaggio politico, più “interattivo” quello del presidente Usa più “chiuso” quello del leader del M5S.
In questa fase politica, caratterizzata da un alto tasso di “anti-politica”, occorre che i partiti si rinnovino completamente e per fare questo occorre puntare molto sulla Rete, utilizzando al meglio tutte le sue possibilità (ad esempio YOUTUBE è ormai considerata una sorta di “televisione mondiale” che raggiunge potenzialmente chiunque in tutto il globo ed a prezzi quasi nulli). La gente ha voglia di cose “fresche “ e “nuove”, cool, e che comunque spazzino via le tradizionali immagine dei partiti e delle vecchie liturgie.Ecco perché l’utilizzo di nuovi strumenti digitali come liquid feedback, che permettono di implementare un alto livello di democrazia, sono così ben accetti dagli elettori.
LIQUID FEEDBACK
Il programma libero liquid feedback (l.f.) è un software che permette l’implementazione pratica del concetto di “democrazia diretta” o “liquida” in quanto la sua principale caratteristica è quella di dare la possibilità a tutti i membri di un gruppo, organizzazione, partito politico di esprimere la propria opinione su una proposta –dopo una fase di dibattito temporalmente contingentata-, tramite il proprio voto, superando strutture gerarchiche e disparità informative (ed in questo venendo incontro a richieste ben espresse dall’attuale sensibilità dell’elettorato; “una persona un voto” è il motto del M5S). Il software permette inoltre di tenere uno archivio storico di tutte le attività precedenti in modo che ci si possa riconnettere ad esse molto rapidamente . Il sito ufficiale è: 
http://liquidfeedback.org/.
Il sistema di approvazione di una “proposta” è costituito in quattro fasi: “nuova”, “in discussione”, “congelata” (per il necessario periodo di riflessione) ed “in approvazione”, è mutuato da quello delle democrazie rappresentative parlamentari per l’iter legislativo con maggioranza relative, semplici assolute, quorum etc Un esempio di tali fasi è mostrato in http://dev.liquidfeedback.org/lf2/unit/show/1.html.

Transumanesimo e politica

Nel luglio del 2012 sono subentrato alla Camera dei Deputati e quindi colgo l’occasione di  questo evento per parlare un po’ di Transumanesmo e Politica nella rubrica a cui collaboro da molti anni del Professor Carlo Pelanda.
La mia nomina ha fatto scalpore, soprattutto all’estero; infatti registriamo con piacere le interviste fattemi da sito del futurolo e tecnologi Usa Ray Kurzweil, dal magazine h+ ed anche dal prestigioso New Scientist. In Italia, poco o niente, s esi esclude una pre-intervista della trasmissione la Zanzara che pur avendo un alto seguito si distingue, almeno finora e per quanto mi riguarda, perun allarmante livello di superficilità molesta.
Ma torniamo al fatto. Il mi occupo di Scienza e Tecnologia da moltissimi anni; sono laureato in Fisica Teorica all’Università La Sapienza di Roma, perfezionato in Fisica delle particelle elementari in Psicologia cognitiva e Reti neurali e analisi delle immagini alla stessa università. Successivamente mi sono occupato per 13 anni  di Information Technology all’Olivetti e poi di Energia ed Ambiente, rivestendo anche incarichi pubblici di un un certo interesse, come Consigliere per le Grandi Opere per il Ministro delle Infrastrutture, membro della Commissione di Impatto Ambientale (VIA) del Ministero dell’Ambiente, Membro dell’Osservatoriosull’Alta Velocità sempre dello stesso Ministero, Responsabile area nuove tecnologie nella Segreteria tecnica del Ministro dell’Ambiente edora Deputato. Inoltre, insegno a Master del Politecnico di Milano e dell’ Università de la Tuscia – La Sapienza, sono giornalista e Membro della Società Italiana di Fisica.
Mi occupo di Transumanesimo dal 2003 ed ho pubblicato anche un libro ad esso dedicato, Transumanesimo.Una filosofia perl’Uomo del XXI secolo(Armando Editore, 2010). Sono Responsabile scientifico per il chapter italiano di H+, l’ AIT, Associazione Italiana Transumanisti.
Perché ho sentito la necessità di questo articolo?
In primis per sfatare le tante stupidaggini che girano intorno al Transumanesimo (abbreviato anche in h+). In Italia, si sa, si banalizza tutto ed ecco che per alcuni giornalisti sprovveduti ed anche ignoranti l’ h+ diviene subito “i marziani”, “gli ufo” e, perché no, anche i “fantasmi” e gli “zombie”. Questo dà il segno ed il livello non solo della profonda incapacità dianalisi scientifica del nostro Paese, ma anche dello strato secolare di ignoranza di certa parte della classe giornalistica (lasciamo poi perdere il metodo, spesso ai limiti del teppismo, ma questo sarebbe un discorso lunghissimo con implicazioni sociologiche e d antropologiche che non è il caso di approfondire qui).
Allora, vorrei rassicurare zanzareed insetti vari: il Transumanesimo non ha ache fare con gli Ufo, gli extraterrestri, i vampiri, gli uomini lupo e tuttala coreografia associata, anche se non escludo che qualche pazzo ogni tanto si infiltri, ma succede anche nelle migliori famiglie. Il Transumanesimo è un movimento filosofico mondiale e quindi transazionale che ha come scopo il miglioramento delle condizioni di vita della specie umana grazie all’utilizzo della scienza  edella tecnologia. Non è difficile da capire.
All’estero gode di prestigioaccademico ed istituzionale in Italia è costretto aduno stato di semi-carboneria grazie anche alla azione antiscientifica di gente come Benedetto Croce (neppure laureato) che ha inflitto un ritardo di decenni allo sviluppo dell’Italia e di formazione di una classe dirigente di livello internazionale.
Detto questo tutti mi chiedono?
Che fare? Come si comporterà politicamente?
Ebbene continuerò a portare avanti gli ideali che ho sempre supportato. Lo sviluppo di una società più libera, aperta, democratica, in cui la scienza e la tecnologia abbiano un ruolo rilevante ed utile al benessere di tutti (come dico anche nel mio ultimo libro appena uscito Il Nulla e il Tutto.Le meraviglie del possibile, Armando editore, 2012).
La politica è il modo con cui la gente ha l’opportunità di cambiare la società; per questo riveste e deve rivestire una estrema importanza.E’ infatti tramite le leggi e la loro applicazione che i sogni politici divengo realtà fattuale in una società moderna.
Come si concilia il rapporto con il Vaticano che in Italia è molto “forte”?
Semplice: libera scienzail libero Stato.
La dimensione religiosa, per me, è un fatto personale e rispettabilissimo; ma riguarda appunto unadelle sfere più intime dell’ individui e non la società nel suo complesso.
Quindi la Scienza prosegue per la sua strada ed sta a noi guidarla al meglio affinché migliori la società, come effettivamente poi sta facendo ed ha fatto. Occorre unire le diverse culture e non combatterle; una scienza umanizzata ed una umanità più scientifica sono un obiettivo possibile ed auspicabile.

Febbraio 2012 combattere l'invecchiamento

:::Desktop:AubreyHat.jpeg

Nella foto il biogerontologo britannico Aubrey de Grey

 

In questo articolo, vogliamo occuparci di quello che fin dall’apparire della civiltà umana è stato considerato un sogno impossibile: ritardare l’invecchiamento.La Seconda legge della termodinamica implica che in un sistema isolato il disordine, cioè la funzione termodinamica che chiamiamo entropia, possa solo aumentare. Ebbene, questa inesorabile legge non riguarda solamente la materia inerte, ma bensì anche il regno biologico e gli esseri viventi. Le strutture biologiche invecchiano -e questa è una constatazione molto comune-, ma come si riesce in taluni casi a “fare ordine” localmente nei sistemi fisici, cioè a far diminuire l’entropia, si può ottenere altrettanto nei sistemi biologici 
Fino a poco tempo fa non sono stati certo ottenuti molti progressi in tal senso, ma ultimamente ci sono novità interessanti. 
Aubrey de Grey (1963 - ) si occupa di gerontologia presso la SENS ("Strategies for Engineered Negligible Senescence”) Foundation che ha come obiettivo quello di ridurre al minimo l’invecchiamento. Mel 1999 ha pubblicato The Mitochondrial Free Radical Theory of Aging e nel 2007 Ending Aging, due lavori che hanno, in qualche modo, dato il via ad un nuovo filone di ricerca; quello della medicina rigenerativa.La SENS è una strategia per riparare i tessuti e rinnovare il corpo umano; egli individua sette tipi di danneggiamenti molecolari e cellulari dovuti ai processi metabolici. 
De Grey è nato a Londra ed ha studiato a Cambridge dove, nel 1985, si è laureato (prendendo divenendo Bachelor of Arts, BA) in Computer Science. Dopo alcune esperienze nel 1985 e 1986 nel campo dell’informatica conobbe sua moglie, una biologa che si occupava di studi sul moscerino della frutta; in seguito, de Grey ha lavorato dal 1992 al 2006 allo sviluppo software presso il Dipartimento di Genetica dell’ Università di Cambridge. Nel 2000 la pubblicazione del libro The Mitochondrial Free Radical Theory of Aginggli è valso un PhD dall’università di Cambridge. In questo libro egli illustra una teoria per cui i danni cumulativi al DNA mitocondriale sono una possibile causa dell’invecchiamento, ma non l’unica. De Grey ritiene che già ora siano disponibili le tecnologie scientifiche per combattere l’invecchiamento dovuto agli effetti collaterali del metabolismo. Il Progetto SENS a cui sta lavorando dal 2005 serve a prevenire l’invecchiamento sia fisico (aspetto quantitativo) che cognitivo (aspetto qualitativo). Nel 2009 ha fondato la SENS Foundation, in California Usa. Fino al 2009 i progetti della S.F. sono stati finanziati dalla Methuselah Foundation cofondata da de Grey e che ha istituito il Methuselah Mouse Prize che ha raggiunto vari milioni di dollari e che premia i nuovi record nel campo di ricerca della SENS sui topi.

La rivista Tecnhology Review del MIT ha lanciato, qualche anno fa, una sfida per dimostrare che le teorie di de Grey non erano esatte, ma alla fine nessuno scienziato è riuscito a dimostrare che non lo fossero.

SENS è l’acronimo di “Strategies for Engineered Negligible Senescence” che può essere tradotto come “Strategie per l’ Ingegnerizzazione di Invecchiamento Trascurabile” e possono anche essere definite come un insieme integrato di tecniche mediche per restaurare la giovinezza molecolare dei tessuti e degli organi invecchiati.Quindi esse implicano l’applicazione della “medicina rigenerativa” al problema dell’invecchiamento.Le SENS cercano rimuovere i danni accumulatisi con il progredire dell’età, tramite varie tecniche tra cui le cellule staminali e l’ingegneria dei tessuti. 
Attualmente, SENS, comprende sette principali tipi di terapie verso le sette maggiori categorie di danneggiamento da invecchiamento. Queste terapie sono piuttosto una descrizione delle SENS e non una definizione e che con il progredire delle conoscenze scientifiche possono cambiare e per questo si utilizza anche il termine di “biotecnologie per il ringiovanimento” per designarle.  Sette campi applicativi sono:

 

1) Le mutazioni di DNA 
2) Le mutazioni mitocondriali (Alzheimer) 
3) Gli aggregati intercellulari (Alzheimer) 
4) Gli aggregati extracellulari 
5) La perdita di cellule, neuroni (Parkinson) 
6) La senescenza cellulare (Diabete di tipo I) 
7) Il cross link extra-cellulare.

In tre di questi campi si è già da tempo alla fase dei test clinici sui topi.Infatti, si sta già sperimentando la sostituzione delle cellule danneggiate con le staminali per alcune malattie come il Parkinson.Poi si stanno sperimentando vaccini per contrastare i depositi di amiloide – una della cause fisiche  responsabili dell’ Alzheimer (l’altra è la proteina tau) - e poi ci sono esperimenti su proteine che garantiscono l’elasticità dei tessuti. Naturalmente, i costi stimati sono molto alti: 100 milioni di dollari all’anno per dieci anni per gli esperimenti sulle cavie, mentre quelli sugli uomini costerebbero assai di più, occorreranno cifre dell’ordine dei miliardi di dollari con un 50% di possibilità di raggiungere un obiettivo assai ambizioso: il prolungamento della vita a centinaia di anni. Tuttavia questi soldi risulterebbero ben spesi se si pensa a quanto costa a livello mondiale il welfare degli anziani e ci sarebbe poi comunque un ritorno in termini di occupazione assai più prolungata e produttiva anche se occorrerebbe studiare le misure per combattere la sovrappopolazione e la limitazione delle risorse naturali. Lo sviluppo della medicina rigenerativa è l’obiettivo di de Grey, ma è solo l’inizio; poi si deve passare anche ad una medicina preventiva in tutti i campi indicati. Un altro campo a cui prestare attenzione è il rapporto con le grandi aziende farmaceutiche che dovrebbero convincersi a riconvertirsi dalla medicina curativa a quella anche preventiva (anche se già ci sono casi di successo, da questo punto di vista, come le statine) e rigenerativa.

 

Bibliografia

Vatinno G., Il Transumanesimo. Una nuova filosofia per l’Uomo del XXI secolo, Armando editore, Roma, 2010.

Un sistema è detto isolato se può scambiare materia ed energia con l’esterno; un sistema è detto chiuso se può scambiare invece solo energia, ma non materia.

In questo senso i lavori del biologo Jaques Monod (1910 -1976), autore del famoso Il caso e la necessità e quello del premio nobel per la chimica il russo Ilya Prigogine (1917 – 2003) sono stati illuminanti. In alcune condizioni, l’ “ordine” può nascere naturalmente dal caos.

Infinito in ogni direzione

Big_bang_manifold_(it).png

INTRODUZIONE
Riprendo il titolo di un famoso libro del fisico americano Freeman J. Dyson (n. 1923), “Infinito in ogni direzione”
 , per sintetizzare efficacemente la conclusione, su basi cosmologiche , topologiche e logiche (evitare la regressio ad infinitum) di questo lavoro e cioè che l’ Universonello spazio e nel tempo (inteso nella sua dimensione generalizzata includente un vuoto quantico pre –esistente al Big – Bang), non può che essere infinito.
LO ZERO IN MATEMATICA
Il “nulla” in matematica è rappresentato formalmente dal numero “zero”. Questo simbolo è comunque “speciale” e pur facendo parte dell’insieme dei numeri detti “Naturali”, cioè della sequenza ( …,-N…-2, -1, 0, 1, 2,…N…) rappresenta qualcosa di diverso rispetto agli altri, rappresenta infatti l’ “assenza” del numero stesso . La storia della matematica, analizzando reperti e documenti antichissimi, ci ha portato a ritenere che lo zero non sia stato incluso nei primi sistemi di numerazione. Infatti, il primo sistema di numerazione accertato, quello sumero di circa 5.000 anni fa, inizialmente non aveva lo zero ed era quindi di tipo “non posizionale”; solo successivamente, fu introdotto lo zero per facilitare i conti e semplificare la scrittura di numeri grandi  passando ad un “sistema posizionale” (come  quello modrnamente utilizzato) in cui il valore di tale numero dipende, appunto, dalla posizione che occupa nella cifra stessa potendo rappresentare, ad esempio nel sistema decimale, in una cifra composta da tre numeri, le “centinaia”, le “decine” e le “unità”.
Per capire questo concetto consideriamo, ad esempio, la cifra “404”.
Indicando con il simbolo “^” l’operazione di elevazione a potenza, possiamo scrivere, facendone uno sviluppo in potenze della base 10:
404 = 4X10^2 + 0X10^1 + 4^10^0 = 400 + 0 + 4 
che è diverso da 
44 = 4X10^1 + 4X10^0 = 40 + 4 
Se non utilizzassimo lo zero-e quindi il sistema posizionale-,“404” e “44” sarebbero lo stesso numero.
I Sumeri utilizzavano sia la “base 10” che la “base 60” per esprimere le cifre (una traccia di questo è rimasta attualmente nel nostro conteggio dei 12 mesi e dei 360 gradi di un angolo giro).
Contrariamente ai Sumeri, i Greci ed i Romani non utilizzavano lozero e avevano sistemi non posizionali (oltretutto i numeri venivano indicati da combinazioni delle lettere dell’alfabeto) in cui rappresentare numeri grandi e fare i calcoli era difficilissimo.
Il sistema posizionale fu introdotto inEuropa, importato dal modello arabo, solo da Leonardo Pisano (1170 – 1240) meglio conosciuto come Leonardo Fibonacci, nel XII secolo.
L’INFINITO IN MATEMATICA
L’infinito, indicato con il simbolo ∞, ha avuto una storia completamente diversa e pur rappresentando, in un certo senso, l’“altra faccia della medaglia” nel suo rapporto diadico con lo zero , è stato a lungo osteggiato dai matematici che erano molto perplessi sul suo utilizzo, date le particolari proprietà completamente differenti rispetto agli altri “numeri”.
I greci se ne tennero, tranne rare eccezioni, sempre a distanza e lo bandirono, per quanto poterono, dai loro ragionamenti geometrici .
Aristotele (ca. 383 – 322 a. C.) ed Euclide (323 – 285 a.C.), ad esempio, ammettevono che esistesse un “infinito potenziale”, ma che non potesse esistere un “infinito attuale”.Archimede (287 – 212 a.C.), utilizza il concetto di infinito quando con il procedimento detto di esaustione calcola il valore di π, cioè il rapporto tra circonferenza  e diametro, approssimando il cerchio con poligoni inscritti e circoscritti di infiniti lati, ma mai utilizza esplicitamente il termine “infinito”. 
Per ritrovarlo, insieme agli “infinitesimi”, dobbiamo attendere la nascita del calcolo differenziale e integrale di Gottfried Leinbitz (1646 – 1716) e Newton (1642 -1727), nel XVII secolo; tuttavia, per dare formale cittadinanza nell’ambito della matematica rigorosa occorrerà il concetto di “limite” di Karl Weierstrass (1815 – 1897) e Augustin L. Cauchy (1789 – 1857) nel XIX secolo, mentre gli infinitesimi troveranno appartenenza alla rispettabilità matematica solo con l’“analisi non standard” di Abraham Robinson (1918 – 1974) negli anni ’60 del XX secolo che leggittimò, se così si può dire, l’utilizzo alquanto disinvolto che ne avevano fatto Newton e Leibnitz.
In ogni caso, nel XIX e XX secolo, l’infinito, nella sua forma in “atto” e non solo “potenziale” dei greci,è accettato nella matematica ed anzi si cerca di indagarne le proprietà. Ad esempio, tutti gli infiniti sono uguali? Già si sapeva che c’erano dei problemi con questi concetti comparativi tra classi infinite e sorgevano spesso paradossi inquesto campo.
Già il filosofo Giovanni Duns Scoto (1265 – 1308), nel XIII secolo ed anche Galileo Galilei (1564 -1642) nel XVII, avevano capito che quando si ha a che fare con l’infinito il “tutto” può esser euguale alla “parte”; ad esempio, l’insieme dei numeri naturali (il “tutto”) può essere messo incorrispondenza biunivoca con i quadrati dei numeri naturali (una “parte”)  ed entrambi sono infiniti.
Percapire cosa succedeva ci vollero però  i lavori di Bernard Bolzano (1741 – 1848), Julius Dedekind (1831 -1916) e soprattutto Georg Cantor (1845 – 1918). Quest’ultimo dimostrò che non tutti gli infiniti sono uguali ed anzi ognuno di essi ha una sua dimensione, detta “cardinalità” (tali numeri “cardinali”, insieme agli “ordinali”, sono chiamati transfiniti), che può esseredifferente e che indicò con la prima lettera dell’alfabeto ebraico, l’Aleph. Ad esempio i numeri naturali ed i razionali (rapporti tra naturali) sono della stessagrandezza di infinito indicata con il simbolo aleph_0,Aleph0, mentre i numeri reali, anch’essi infiniti, hanno una “dimensione” maggiore (e questo è intuitivo visto che contengono i Naturali) e la loro cardinalitàèaleph_1,Aleph1. Cantor poi giunse ad una ipotesi, detta “ipotesi del continuo”, in  cui cerca di dimostrare che tra Aleph0, la cardinalità dei numeri Interi e Razionali e 2^Aleph0, cioè la cardinalità dei numeri Reali, non c’erano altrecardinalità di infinito. 
In formula l’ ipotesi del continuo è:^{\aleph_0} = \aleph_1. \,

^{\aleph_0} = \aleph_1. \,

Oppure, l’ “ipotesi generalizzata” del continuo:

 

^{\aleph_\alpha} = \aleph_{\alpha+1}.

 

 Tuttavia, nonostante i suoi sforzi, non vi riuscì mai e questo fu spiegato solo dal logico Kurt Gödel (1906 – 1978), neglianni ’30 del XX secolo e successivamente da Paul K

 

Empirismo e Teoria

1

Fig. 1 Il moto di un pendolo che avviene in un piano ed ad una distanza fissata l. Basta allora solo una coordinata, l’angolo θ, per risolvere il problema differenziale.

 

Nella Scienza  in generale e nella Fisica in particolare vi sono sostanzialmente due strade attraverso le quali procede la conoscenza: quella della esperienza e quella della teoria.
Intendiamoci. Il metodo cosiddetto galileiano basato su  "osservazione, esperienza, ipotesi e teoria" e' in realtà molto chiaro.Prima viene, per citare il grande scienziato pisano, la "sensata esperienza"  e solo dopo la "teoria"; in pratica, possiamo dire, che l'esperienza si assume il ruolo di una sorta di "selezione naturale" delle varie teorie.Solo quelle che concordano con il modello sperimentale sopravvivono, per usare un termine darwiniano.
Tuttavia, spesso ci si lascia, come dire, prendere la mano dalla teoria a scapito della esperienza.
Ed ecco così che vi e' tutto un fiorire di teorie, più o meno credibili, che spesso vengono propalate dai loro cultori come una piu' che plausibile  "Verita'", dimenticando appunto la "sensata esperienza".
Alcune teorie sono interessanti, soprattutto nel campo della fisica quantistica e quanto-cosmologica, ma poi di concessione in concessione, ci si trova magicamente trasportati in campi difficilmente distinguibili dalla fantascienza.
Oggi, vogliamo trattare pero' la questione da un lato poco usuale.

 

 

 

L'insegnamento della Fisica a Roma al tempo della guerra fredda

2

Fig. 2 Nella immagine un libro di Fisica di Landau –Editori Riuniti-

Vogliamo quindi parlare di come affrontare una questione dell'insegnamento prendendo come spunto un argomento di Fisica, considerato "semplice" ( ma sarebbe forse più corretto parlare di "elementare"),  e cioè la determinazione del periodo di un pendolo, cioè quanto un sistema meccanico oscillante, -ma la stessa equazione, con opportune reinterpretazioni delle funzioni vale anche ad esempio per i circuiti elettrici- ci impiega  ad eseguire delle "piccole" oscillazione (che si possono dimostrare isocrone) e tornare al punto di partenza.
Quando frequentavo negli anni '80 del XX secolo la Facoltà di Fisica dell' Universita' di Roma La Sapienza, c'erano due metodi possibili per risolvere il problema: quello di scuola "sovietica" basato sui testi di scienziati principalmente russi  (Landau, Smirnov, Arnold, Piskunov) e quello della scuola "americana" ("La fisica di Berkley", Feynmann, Apostol).
La divisione in blocchi contrapposti, tipici della guerra fredda, si manifestava allora anche con editori diversi: i sovietici erano pubblicati dagli "Editori Riuniti" in pagine stampate su carta austera e con poche immagini e nessuna fotografia, mentre gli americani erano pubblicati principalmente dalla Zanichelli su carta lussuosa, costosa e con molte immagini e foto.
Il primo metodo, quello di scuola sovietica, si basa su una formalizzazione  della meccanica con definizioni,ipotesi, equazioni differenziali del moto ( nella ipotesi di "piccole oscillazioni" che implicano una linearizzazione del problema iniziale che si esplica nel sostituire la funzione seno dell'angolo con l'angolo stesso)), come riportato nella equazione seguente:

 

3
(1)

 

Questa equazione differenziale ordinaria del secondo ordine non lineare nella incognita della funzione dell'angolo di oscillazione θ  (vedi figura 1) e' una semplice applicazione dell'equazione fondamentale della meccanica newtoniana, F= Ma, nella ipotesi che stia agendo unicamente la forza di gravita' (esemplificata dalla costante gravitazionale "g") e l'attrito sia nullo (o, quanto meno, del tutto trascurabile in un senso quantitativo).

Il metodo di scuola americana invece, si basava sull'esperimento con un pendolo autocostruito, con filo e peso e quindi sulla misura del periodo  con un cronometro.
Il risultato, dato dalla (2), e' identico sia che ci si arrivi dalla equazione differenziale di secondo ordine alle derivate parziali sia che ci arrivi sperimentalmente costruendo una curva per punti della durata del periodo T in funzione della lunghezza l; tuttavia io ritengo che il metodo basato sulla esperienza sia superiore dal punto di vita di una epistemologia della didattica.
All'inizio si può essere senza dubbio, come dire, perplessi da tanta manualità richiesta, ma poi ci si rende conto che noi stiamo cercano di capire quale relazione algebrica lega le due 
grandezze periodo e lunghezza e cioè:

5
(2)

 

La scelta del metodo di risoluzione  non e' solo una questione di gusto, ma in realtà rivela una visione del mondo molto diversa.La via sperimentale americana e' legata indubbiamente al pragmatismo, anche inteso come teoria filosofica (vedi, ad esempio, l'opera ed il pensiero di William James) mentre la scelta "teorica" rivela un grande interesse per la teoria speculativa che può anche essere inquadrata nella corrente filosofica idealista con tutte le conseguenze del caso nella costruzione anche di un modello sociale.
La "verità " dunque se anela  a divenire "Verità" in un processo asintotico di progressivo avvicinamento, deve essere ricercata unicamente partendo dall' esperienza. Questo non vuol dire naturalmente negare il grande apporto della teoria; le teorie hanno il compito di proporsi come modelli interpretativi e predittivi della realtà, ma solo appunto l'esperienza può selezionare le teorie che sono accettabili.Inoltre, dobbiamo anche ricordare che vi possono essere due teorie che spiegano efficacemente i risultati sperimentali.Allora dovremmo scegliere quella che sembra avere le maggiori possibilità di fare previsioni corrette sui risultati di altri esperimenti.
Questo modo di procedere se da un lato fa perdere di immaginazione  fantasia dall'altro garantisce risultati certi e verificabili.

A che punto e' la notte? Ovvero possiamo parlare di un soddisfacente "sistema mundi"?

(con una certa coraggiosa apertura al "technoBrahma") 
di Giuseppe Vatinno
"āsato ṃā sat gamayā / tamaso ṃā jyotir gamayā / ṃrityor-ṃā āmritam gamayā / Om śānti śānti śāntiḥ"
"Guidami dal non-essere all'essere, guidami dall'oscurità verso la luce, guidami dalla caducità all'immortalità"
(mantra vedico)

Carl Gustav Jung, 1914, Systema mundi totius
(il primo mandala disegnato dallo psicanalista svizzero)

A ben pensarci l'umanità, o almeno la sua storia narrativa -l'unica poi che conta-, non e' affatto molto antica: ad essere generosi possiamo pensare a qualche documento scritto risalente al 3.000 a. C. con il Gilgamesh, scritto in area mesopotanica, o i primi Veda composti intorno al 2.000 a.C. nella valle del fiume Indo e quindi diciamo che la nostra "filosofia" intesa come corpus sistematico di saperi e conoscenze non data più di 5.000 anni.
In questo periodo di tempo siamo passati dai tentativi di spiegazione mitologica del mondo ad una scienza sostanzialmente matura ed abbiamo superato quelle fasi che i sociologi chiamano della fanciullezza e della prima maturità riferendosi allo sviluppo della società stessa. 
Il fenomeno del mito e' ben studiato soprattutto dagli antropologi culturali.
I popoli primitivi spiegano il mondo con l'animismo, cioè ritengono che gli elementi naturali siano gli agenti costitutivi ed attivi del cosmo, in forma magari di divinita' "antropizzate". Ecco come che il vento, il sole, il fuoco, ma anche le piante, gli alberi e i fiumi divengano altrettanti "dei" nel Pantheon primitivo e ingenuo dell'umanità .
Le pitture rupestri –di chiaro significato magico e sciamanico- come quelle nelle grotte di Lascoux in Francia o Altamura in Spagna, dicono che tale fase e' durata a lungo: dal 35.000 a.C. (paleolitico superiore) a circa appunto, il 3.000 a.C..
Poi ecco, attorno a quest' ultima data, nascono i prodromi del fenomeno religioso con il proto- induismo vedico nella regione della valle dell'Indo insieme alla nascita del "sentire" religioso egizio e l'ebraico.
Un'altra fase fondamentale e' quella "riformista" che inizia intorno al 500 a.C. con la nascita del Buddismo, e del Cristianesimo nell'ambito sempre delle grandi religioni induiste ed ebraiche.
Vi e' quello che il filosofo della scienza Thomas Kuhn chiamerebbe un "cambio di paradigma" passando ad una concezione molto piu' collaborativa e potremmo dire "sociale" rispetto a quelle piu' "guerriere" precedenti.
Poi da allora vi e' un periodo di sostanziale stasi mentre pero' in Grecia la filosofia andava progressivamente separandosi dalla religione formando un corpus formidabile per intuizioni e sistematizza ioni della conoscenza.
I cosiddetti "secoli bui" (quanto poco illuminati ancora non e' poi neppure ben chiaro agli stessi storici).
In Europa e' l'umanesimo rinascimentale di Pico della Mirandola e di Marsilio Ficino a segnare il risveglio scientifico che troverà poi piana affermazione nell'opera degli empiristi inglesi,Hobbes, Locke, Berckley, Hume, in Galileo, in Newton e nella nascita della cosiddetta scienza moderna basata sulla quaterna osservazione, esperienza, ipotesi e teoria.
Il prodigioso sviluppo delle conoscenze scientifiche, in primis la meccanica quantistica di Bohr, Heisemberg, Dirac, Scrhoedinger e la teoria della relatività di Einstein, e poi tecniche del XIX e XX secolo sono il portato ultimo di tale processo iniziato in qualche oscura grotta del neolitico.
Quella stessa luna, che I nostri antenati preistorici guardavano con ammirazione e paura sarebbe stata conquistata dalla loro progenie.
Indubbiamente l'uomo ha sempre sentito l'universo come misterioso e inconcepibile se non altro per una inevitabile compresenza di concetti di infinitezza, prima nelle qualità afferenti al divino e poi in quelle dell'universo stesso.
La domanda chiave che quindi ora ci possiamo porre e': l'universo e' intelleggibile?
E cioè, l' universo alla luce delle ultimissime conoscenze scientifiche presenta una struttura logica, un ordito concepibile o siamo ancora avvolti nel mistero come era all' origine buia e tenebrosa dei tempi?
Si badi che già l'atto di porsi questa domanda potrebbe segnare invero la fine di un'epoca dello sviluppo dell'umanità. Non e' che questa domanda non sia stata posta in passato, ma certamente si tratto' di un atto di enorme presunzione intellettuale; alla quale seguirono risposto sbagliate e pretenziose; ora, in effetti, possiamo se non altro permetterci di porre la domanda.E dunque:
Il mondo e' intellegibile?
Riformulando per ancor maggiore chiarezza: riusciamo a farci una idea di come stiano veramente le cose e a progettare un soddisfacente 'sistema mundi" che ci dia contezza di tutto?
Io ritengo che a questo punto di evoluzione della nostra societa' la risposta possa essere finalmente positiva.
Si, possiamo dire di "intelligere" l'universo sia scientificamente che filosoficamente.
Il cosmo ci si presenta dunque come l' energia di base che a volte, in particolari condizioni fisiche, si mostra come materia ed e' sempre interpretabile come informazione.
Le teorie fisiche di tipo cosmologico - quantistico ci dicono infatti che tale "energia" e' sempre esistita in forma di energia del vuoto.
L'universo si anima alla sua eterna "danza" per poi scomparire e ricomparire ancora forse In una sequenza infinita di Big – Bang che creano quasi continuamente nuovi universi ognuno con differenti leggi fisiche.
Dunque l' energia, cioè il quid basico del cosmo, e' sempre esistita e' sempre esisterà.
Ecco quindi che il quadro complessivo della nostra conoscenza delle cose, cioè appunto, il "systema mundi" risulta sostanzialmente completo.
Tuttavia una domanda sorge: e la metafisica? 
Io credo che ci sia metafisica dove la "fisica"', nella sua accezione più ampia di "conoscenza", arretra per ignoranza delle cose lasciando il terreno al mistero.
Non ha infatti molto senso disegnare un mondo in cui ci sia una materia "fisica" ed una "non fisica" come riteneva il filosofo francese Cartesio.
La "materia" deve essere unica o tutta "materiale" o tutta non "materiale" (non uso il termine "spirituale" per non complicare inutilmente il discorso).
Poiché quella materiale per definizione esiste e la vediamo e' chiaro che l'unica materia e' quella materiale.
Anche una metafisica può essere "spiegata" nelle coordinate della conoscenza intellettiva.
Quindi il quadro che ci viene ad essere mostrato e' quello di un territorio geometrico netto e ben definito (e' il terreno della conoscenza certa) con alcune "anomalie" sui bordi geometrici.
Se potessimo sintetizzare in una immagine la "conoscenza" in un immenso cubo esso avrebbe una forma ben definita tranne che sugli spigoli ove alcune linee non sono più nette, ma osservate con un sufficiente livello di dettaglio, irregolari.
Nella irregolarita' c'e la supposta anomalia solo per mancanza di conoscenza e quindi un modalità tattica e non strategica.
Gli angoli del cubo sono dove e' riposta la metafisica, dove essa si e' rifugiata.
L'attività continua della conoscenza servirà a "raddrizzare" le linee storte rendendole nuovamente coerenti al quadro generale.
Naturalmente, questa totalizzazione di una sola materia esistente non significa che non si possa costruire una sorta di "metafisica", cioè un "modo diverso di vedere le cose", fondato su una emotività pura o una "emotività razionale"' ed in questo caso religioni filosofiche come l'induismo possono essere forse essere una sorta di modello interpretativo di quello che c'e' veramente "oltre" lo schermo.
Questo perché comunque la natura umana sembra non ancora completamente adatta ed adattata a reggere massicce dosi di materialimo allo stato puro, ma sembra servire un sorta di "materialismo ben temperato" o una "spiritualità tecnicizzata" che serva a mostrare in una (più) innocua forma simbolica che servi a mediare il passaggio (se ci sara' e se sara' utile) ad una nuova fase di sviluppo dell'umanità quella della piena e consapevole maturità.

La scienza dei "cultori del confine"

La scienza, soprattutto quella moderna, è sempre più concentrata e settorializzata; ogni scienziato si occupa solo della sua piccola porzione di sapere  perché ormai le conoscenze sono così estese ed ampie da rendere praticamente impossibile il gestire ai massimi livelli più campi. Questo atteggiamento è sicuramente giusto ed è conseguenza di una visione corretta ed etica. Tuttavia, in questo articolo, senza alcuna pretesa di completezza, voglio occuparmi di un problema interessante che riguarda il rapporto intercorrente tra la “specializzazione”  e l’ “olismo”, intendendo questo termine come la capacità di abbracciare la comprensione del “tutto” per potere spiegare nuovi fenomeni (o meglio “epifenomeni”) e nuovi comportamenti che altrimenti non sarebbero individuabili occupandosi di un solo campo. In ogni caso, non mi interessa parlare dell’olismo in sé e per sé, che tanto è stato scritto e lo sarà ancora sull’argomento (con spesso discutibili sconfinamenti nella new age), quanto indagare il rapporto tra la “profondità della conoscenza” e la “generalità” della stessa, nel senso di una ricerca di un valore massimizzante entrambe.
In altri termini, puramente matematici,  la domanda è: “si può trovare un valore ideale che massimizzi contemporaneamente la profondità della conoscenza e di generalità del sapere al fine di conoscere nuovi fatti e giungere a nuove scoperte?”.Io penso che la risposta sia affermativa; nel senso che, anche matematicamente, deve esistere un valore ideale di estensione e profondità del sapere.
Supponiamo quindi che lo scibile o, più limitatamente, il nostro campo di ricerca“S” consti di varie aree scientifiche che definiremo così:
(1)  S = (A, B,…F), con A= Fisica, B = Biologia, C = Medicina, D= Ingegneria, E= Psicologia, F = Matematica e così via.
Allora, ogni “area” potrà sarà definita da due parametri: uno “e” che rappresenta l’ “estensione della conoscenza” e l’altro  “h” che invece rappresenta la sua “profondità”.
Allora la domanda è: esiste una combinazione ottimale dei due parametri “e” ed “h” tale che f(e, h),  chiamiamola “funzione di conoscenza”, abbia un valore massimo per l’ “insieme” S?
In pratica, riformulando la domanda in altro modo, quali devono essere i rapporti tra “e” ed “h” per massimizzare i rapporti di “conoscenza” e “profondità” di ogni singola disciplina?
In formula:
(2) Quali devono essere i valori di (eA,hA, eB,hB, …eF,hF) affinché f (eA,hA, eB,hB, …eF,hF) abbia un valore massimo?
E cioè quali devono essere la “profondità” e l’ “estensione” dei vari parametri “e” ed “h” affinché sia massima l’intera conoscenza?
Questo perché riteniamo che da una visione generale, globale, appunto olistica di un sistema possano derivare conoscenze superiori a quelle raggiungibili da una pur approfondita conoscenza delle singole parti.Ad esempio, unendo conoscenze di fisica e anatomoneurologia si può tentare una “teoria della coscienza” (vedi, ad esempio,  i lavori di R. Penrose di D. Hofstadter) che altrimenti rimarrebbe interdetta ai singoli scienziati che si occupano solo di fisica o di biologia. Il valore esatto dei parametri è importante perché occorre massimizzare la conoscenza del singolo campo del sapere massimizzando anche l’estensione , ottimizzando quindi il problema. Altrimenti, una conoscenza troppo specifica di un singolo campo impedisce una buona conoscenza generale di altri campi e viceversa una conoscenza troppo generale di ogni campo impedisce quella conoscenza particolare del singolo campo che porta alla spiegazione o all’individuazione di un fenomeno nuovo. Questa è una nuova scienza quindi: quella dei “pontieri” o dei “cultori del confine” di scienziati, cioè, che agiscono al confine di varie e diverse aree scientifiche conoscendo il massimo in profondità ed estensione di ogni area. Questo atteggiamento culturale pensiamo ci porterà a nuove scoperte ed a nuovi orizzonti.
BIBLIOGRAFIA
D. Hofstadter, “Gödel, Escher, Bach: un’eterna Ghirlanda Brillante”, Adelphi, Milano, 1984.
R. Penrose, “La mente nuova dell’Imperatore”, Rizzoli, 1992.
R. Penrose, “La strada che porta alla Realtà”, Rizzoli, Milano, 2005.

In pratica, per quello che ci interessa, intendiamo per “olismo” il comportamento per cui la “somma” è superiore alle singole parti di un sistema.

Effettivamente, la matematica sembra rivestire un ruolo un po’ particolare in queste considerazioni essendo la “base” di tutte le altre scienze; a meno che non si voglia, sulla scia dei lavori come, ad esempio, i “Principia Mathematica” (1913) di Bertrand Russell e Alfred Whitehead, individuare nella logica il fondamento ultimo anche della matematica e quindi delle altre scienze.

Effettivamente, ci si potrebbe chiedere se il campo S possa contenere anche altri settori, anche non scientifici, come l’arte, la politica, le scienze giuridiche etc etc. Io credo che la risposta sia affermativa, ma in questo lavoro, per semplicità, e senza perdere sostanzialmente di genericità, possiamo ridurre il discorso unicamente al campo scientifico.

Naturalmente, nella nostra epoca, cioè il “tecnocene” i due parametri “e” ed “h” non sono indipendenti, ma saranno una funzione più p meno complessa e strutturata l’uno dell’altro; cioè h = h(e) oppure, ammesso che la funzione sia invertibile, e = e(h); invece, ad esempio, per trovare un’epoca in cui i due parametri erano sostanzialmente indipendenti possiamo pensare al “rinascimento” dove la profondità del sapere e i campi investigati non interferivano l’uno l’altro; si veda, ad esempio, il genio di un Leonardo da Vinci oppure di Pico della Mirandola.

Da un punto di vista un po’ più tecnico faccio notare che i rapporti di dipendenza dei parametri “e” ed “h” non riguardano solo i vari campi A, B, …, F, ma che, in genere, devono sussistere rapporti tra i parametri , ad esempio, eA, eB, …, eF oppure ha, hB, …., hF. Dunque se rappresentassimo queste relazioni in forma matriciale, , la matrice del sistema, per capirci, non sarebbe diagonale, ma avrebbe termini misti; sarebbe anche interessante studiare la forma della matrice per evidenziare eventuali simmetrie che rifletterebbero le particolari interdipendenze dei vari campi.

Implicazioni dell'entanglement sul concetto di "realtà"

IMGIl fenomeno dell’ “entanglement quantistico” (in seguito e.q. o anche e.) implica, di fatto, la non esistenza dei concetti di separazione spazio – temporale. Riportiamo brevemente (avendone già trattato in altri articoli e saggi) il concetto di “entanglement”, che in inglese significa “connesso” o “attorcigliato”. L’ e. è un fenomeno che si mostra unicamente a livello quantistico, cioè non ha un’ analogo nella fisica classica. In pratica esso deriva proprio dal concetto di “misura” in meccanica quantistica; infatti, a questi livelli la materia e l’energia (che sono legate dalla nota equivalenza relativistica) hanno comportamenti sia ondulatori che corpuscolari, come del resto è stato rivelato da famosi esperimenti, come quello della “doppia fenditura”. In pratica, una elettrone, mostra a volte di comportarsi come un’ onda (dà per esempio luogo a fenomeni ondulatori tipici, come quello dell’interferenza) ed altre volte come un corpuscolo (ad esempio nell’effetto fotoelettrico); questo è a sua volta un portato del Principio di indeterminazione di Heisemberg che è alla base di tutto il mondo quantistico. Questo bizzarro comportamento fu descritto in un esperimento ideale dal trioAlbert Einstein (1879 -1955), Boris Podolsky (1896 -1966) eNathan Rosen (1909 – 1995) da cui il nome di “paradosso EPR” (presentato nel 1935). In parole povere tale paradosso ci dice che due particelle che siano state una volta a contatto tra loro poi rimangono per sempre “unite” eche se modifichiamo lo stato quantico di una, ad esempio la polarizzazione dello spin, immediatamente l’altra, pur essendo a miliardi di anni luce ne risente dell’effetto e si adegua.Quando tale paradosso uscì provocò aspri dibattiti in seno alla comunità scientifica e soprattutto tra Einstein e Niels Bohr (1885 -1962); il primo pensava che poiché potevano esistere tal assurdità la meccanica quantistica fosse incompleta e magari esistessero delle “variabili nascoste” che dessero conto di ciò togliendo l’intrinseca dimensione probabilistica che regnava nel mondo dei quanti; ilsecondo pensava invece che il paradosso fosse vero e che rispecchiasse una strutturale impredicibilità del mondo quantico. C’è da dire che la scienza dimostrò molti anno dopo con il lavoro teorico di John Stewart Bell (1928 – 1990) e poi quello sperimentale nel 1982 di Alain Aspect (1947 -) che Bohr aveva ragione ed Einstein torto. Il Paradosso EPR ha una portata filosofica  enorme perché ci mostra che il mondo inrealtà è molto diverso da come ci appare a noi a livello macroscopico; in pratica tutte le particelle risultano essere interconnesse, ma la cosa sconvolgente è che tale connessione è immediata al di là dello spazio e del tempo e che quindi questi due concetti a livello elementare non esistono nel modo in cui li intendiamo noi.

Dunque la m.q. è una teoria intrinsecamente non locale e l’ipotesi delle variabili nascoste è falsa (Teorema di Bell, 1964). Il portato principale di questa situazione è che la stessa “Realtà” sembra non esistere fin quando qualcuno non la osserva ed allora ecco che tramite il collasso della funzione d’onda la materia è costretta a scegliere un determinato stato quantico (energia, spin etc) e quindi si “concretizza” una forma stabile.Fin quando la materia o l’energia non è osservata essa esiste inun ostato indeterminato e senza forma alcuna.

Nell’esperimento della doppia fenditura c’è uno schermo con due fessure: unfotone emesso può passare solo d a una delle due, ma fin quando non losi osserva esso, interagendo con sé stesso,risulta essere passato in entrambe; quando poi lo si osserva è costretto a “scegliere” una delle due fessure. A questo punto il famoso fisico [1] John  Archibald Wheeler (1911 -2008) ha proposto il concetto di “universo partecipatorio” perché, comevedremo, è proprio l’osservatore, in un certo senso, a “costruire” la Realtà.

Riprendiamo il nostro esperimento con il fotone [2] e lo schermo a doppia fenditura; seponiamo un rivelatore di fotoni dietro una delle due fenditure e d ad una certa distanza dallo schermo (tale cioè da assicurarci che il fotone sia passato da entrambi le fenditure, nella sua forma d’onda) ecco che noi possiamo agire a  posteriori sul comportamento del fotone stesso dopo che è passato dalle due fenditure. Infatti, osservandolo dietro ad una delle due fenditure automaticamente si esclude l’altra, ma il fotone, come onda era già passato da entrambi ed allora che cosa è successo?

Da unpunto di vista puramente logico possiamo dire che il fotone, come onda, risulta aver “ritirato” il proprio “fronte d’onda” come semai fosse passato contemporaneamente dalle due fenditure, invece siamo certi che vi sia passato perché dietro loschermo si era formata la caratteristica interferenza tipica delle onde. Allora quale misterioso meccanismo ha agito addirittura nel passato per cambiare quello che era già avvenuto? In realtà il paradosso può essere risolto solo pensando che i nostri concetti di spazioe di tempo non valgano più, come già detto, a livello quantistico; infatti se il tempo e lo spazio non esistono ecco che allora il fotone non “tornerà sulle sue decisioni”, ma, molto semplicemente, non vi erano decisioni dprendere perché iltempo non era passato, ad un certo livello di Realtà, ma tutto avveniva contemporaneamente!

Wheeler spiega bene le cose con un caso concreto o esperimento a “scelta ritardata” (proposto nel 1978); proprio della Relatività Generale di Einstein sappianoche nello spazio esistono le cosiddette “lenti gravitazionali” che sono galassie che hanno la possibilità di dividere in due la luce di una stella, ad esempio un lontano Quasar, grazie proprio alla loro forza gravitazionale. Quindi se c’è un Quasar a 10 miliardi di anni luce ed una lente gravitazionale ed  ecco che un fotone proveniente dal Quasar incontra la lente e si divide in due (analogo dell’esperimento della doppia fenditura). Tuttavia, quando giunge dopo ben 8 miliardi di anni sulla terrae noi lo osserviamo lo indiciamo a “scegliere” quale delle due strade cosmiche (che portano alla doppia immagine del Quasar) ha seguito e quindi in un certo senso con la sola osservazione modifichiamo un passato di 8 miliardi di anni!

E’ chiaro dunque che fenomeni come questi ci dicono che l’intero universo è veramente una creazione degli osservatori che lo osservano e non esiste di per sé oggettivamente nel senso noto della meccanica newtoniana. Queste conclusioni rivoluzionano completamente non solo la visione che abbiamodella Realtà, nei concetti basilari di spazio e tempo, ma anche a livello filosofico e l’universo ci pare sempre più una struttura interconnessa in cui quello che accade non esiste oggettivamente una volta per tutte, ma piuttosto fa parte di un quadro continuamente cangiante dipinti dagli stessi osservatori. Resta da definire bene il concetto di “osservatore” e quindi di “osservazione”. Cos’ èun osservatore? Quando lo posso definire tale equindi capaci di alterare addirittura il passato? La coscienza gioca un ruolo in tutto questo o l’ “osservatore” potrebbe anche essere anche un meccanismo automatico ed inanimato? Come si vede con queste domande siamo giunti al livello più profondo di una sofisticata riflessione su cosa sia quella Realtà che noi diamo giornalmente per scontata.

Bibliografia

Aczel A. D. Entanglement. Il più grande mistero della fisica Raffaello Cortina Editore, Milano 2004.

Albert Einstein, Podolsky, Rosen, (1935) "Can Quantum Mechanical Description of Physical Reality Be Considered Complete?" Phys. Rev. 47: 777.

 Bell J. S. (1964) “On the Einstein-Podolsky-Rosen Paradox”, in “Physics”, I, pp. 195 -200.

Bell John S., “Dicibile e indicibile” in meccanica quantistica”, Adelphi Milano 2010.

Ghirardi G.C., Un'occhiata alle carte di Dio, Il Saggiatore, Milano 2003.

Wheeler J. A., "The 'Past' and the 'Delayed-Choice' Double-Slit Experiment", in Mathematical Foundations of Quantum Theory, edited by A.R. Marlow.

[1] Wheeler ha coniato il termine “buco nero” ed è stato autore della famosa equazione di Wheel – DeWitt che è la funzione d’onda quantistica per l’intero universo. In formula:  dove H è l’operatore hamiltoniano (energia) quantizzato della Relatività generale applicato alla funzione d’onda quantistica.

 

[2] Questo esperimento è alla base di uno effettivamente realizzato da Alain Aspect nel 2007.

L' "Oggettivismo" e il Transumanesimo

IMG

L’ “Oggettivismo” è un movimento internazionale fondato dalla scritte russa poi americanaAynRaud (1905 – 1982); l’o. ritiene che la “realtà” esista in modo del tutto indipendente dalla sua (possibile) conoscenza.
I suoi principi – base sono:

  1. L’individualismo
  2. L’”egoismo razionale”
  3. Il capitalismo

Appare evidente che l’Oggettivismo sia collegato al libertarianismo ed anche all’anarcocapitalismo (termini che, in realtà, sono quasi sinonimi); un famoso oggettivista è Alan Greenspan, a capo della FederalReserve USA (1987 – 2006) fautore del libero mercato e del laissez –faire).
La Raud è stata una scrittrice che ha scritto molti libri su questo tema anche se spesso in forma di romanzo; ricordiamo  i più importanti e noti come “Antifona”, “La Fonte Meravigliosa”, l’ “Atlantide”. Attualmente (2010) è attiva l’ “Atlas Society” che porta avanti la filosofia oggettivista (
www.objectivistcenter.org).
Come detto, l’o. afferma che la “Realtà” esiste oggettivamente ed è del tutto indipendente dalle credenze e speranze umane. In pratica, dal punto di vista filosofico, si trova in contrapposizione con i relativismi che sono nati principalmente nel XX secolo sulla base delle scoperte della meccanica quantistica (per cui, invece, la “Realtà” sembra non avere una esistenza propria ma che sia, in un certo senso, “creata” dall’osservatore).
Come già accennato l’o. è per il cosiddetto turbo capitalismo e ritiene che il suolo dello Stato debba essere minimale e limitato alla sicurezza interna ed esterna e cioè all’organizzazione di polizia ed esercito, ma che in economia non debba entrare minimamente.
Il Presidente del partito repubblicano americano Barry Goldwater nel 1964 si ispirò molto all’O.
Perché dunque ci interessa l’o.?
Ci interessa perché diversi transumanisti –soprattutto in USA- sono oggettivisti.
Infatti, l’oggetivismo, in una certa sua forma, si può avvicinare a posizioni di alcuni transumanisti americani che erano presenti all’origine del movimento che poteva essere considerato, in alcuni suoi aspetti, influenzato da tematiche anarcocapitaliste  affermando che una economia di libero mercato raggiunge una più efficiente allocazione delle risorse di ogni economia pianificata i mista. Tuttora diversi transumanisti soprattutto americani sono vicino a tematiche oggettiviste e anarcocapitaliste. Ad esempio, i transtopisti USA (http://transtopia.tripod.com/index.html) sono dichiaratamente favorevoli a forme anarcocapitaliste e soggettiste.
Il dibattito sulla migliore forma di economia per raggiungere gli obiettivi transumanisti resta comunque aperto.

no con particolari che solo lui può conoscere della sua famiglia, ecco che Amilcare che è un chiacchierone e si distrae facilmente si dimentica dell’appuntamento con una bella ragazza che sarebbe potuta diventare sua moglie.
Ma la signorina indispettita dal comportamento del giovanotto non lo vuole più vedere.
Ed ecco quindi che per colpa di Alberto il nonno Amilcare non si sposerà più e di conseguenza lo stesso Alberto non sarebbe più potuto nascere.
Questo tipo di paradosso è detto di “coerenza”.Insomma una situazione obiettivamente complicata.Al di là della storiella come ci dobbiamo comportare con i paradossi temporali?
Alcuni scienziati come il celebre Stephen Hawking o Roger Penrose ritengono che qualora Alberto tenti in qualche modo di fare qualcosa che muti significativamente il passato una sorta di “censura cosmica” interverrebbe per impedirlo.Ad esempio, la voce di Alberto potrebbe “misteriosamente” affievolirsi e così la conversazione tra il potenziale (a questo punto) nonno ed il nipote potrebbe finire prima cosicché Amilcare potrebbe essere puntuale all’appuntamento con la ragazza e tutto andrebbe al meglio.Tuttavia che ne sarebbe del libero arbitrio?E poi in che modo questa censura agirebbe?Cioè come farebbe l’universo ad “accorgersi” che qualcosa non va’ e che c’è il rischio che un piccolo crono-vandalo provochi seri guai alla storia futura?Un’altra variante del paradosso, dal significato però assolutamente uguale, è quella proposta dal filosofo Michael Dummett.
Un critico d’arte torna nel passato per conoscere quelloche diventerà il più famoso pittore del futuro.Ebbene, questo pittore, quando incontra il critico fa quadri in verità molto mediocri ben lontani dai capolavori che il futuro (potrebbe?) conoscere.Ed ecco quindi che il critico d’arte che è una persona accorta, gli mostra delle stampe dei futuri capolavori.Il pittore ne è talmente entusiasta che glieli sottrae e li va  a ricopiare.Nel frattempo, il critico d’arte si deve rimbarcare nella macchina del tempo per tornare alla sua epoca e lascia quindi le copie nel passato.A questo punto si è creato un “valore” dal nulla e cioè chi ha fatto lo sforzo creativo per dipingere i capolavori?Questo paradosso è detti di “conoscenza”.Per evitare la bizzarra “censura cosmica” si è utilizzata una teoria quantistica nota come “teoria a molti mondi” che fu proposta nel 1957 da Hugh Everett III.Questa teoria ci dice che ci sono tante copie del nostro mondo quante sono le possibili variazioni quantistiche delle particelle che lo compongono.Quindi un numero altissimo.Per chiarirci le idee pensiamo quindi ad un elettrone che ruota intorno ad un protone nell’atomo di idrogeno.
Ebbene tale elettrone –secondo la meccanica quantistica- non ha un valore dell’energia ben determinato ma si può solo dire che quella energia sarà contenuta in un certo insieme di valori con una certa probabilità.L’impredicibilità della natura a livello quantistico è una caratteristica intrinseca.
Ebbene, secondo la teoria  a molti mondi, per ogni energia dell’elettrone esiste un differente universo e così per tutte le altre particelle.Quindi ci saranno mondi in cui il nonno Amilcare si sposa con la nonna di Albero e mondi in cui questo fatto non avviene più.Ebbene, Alberto nel suo viaggio nel tempo, qualora faccia perdere l’ appuntamento al  nonno, “atterrerà” in un mondo variante in cui lui non è nato e quindi non si genererà alcun paradosso temporale.Ovviamente resta da spiegare quale principio (e quali forze!) di carattere generale agiscano  per far scegliere ad Alberto l’universo “giusto”, ma comunque –in questo caso- sia il libero arbitrio che il principi odi casualità sono salvi.

Bibliografia

Paul Davies, Come costruire una macchina del tempo, Mondatori, Milano, 2003

David Deutsch, Franck Lockwood  La fisica quantistica del viaggio nel tempo, in Le Scienze n. 309, maggio 1994
Marcus Chown, The Universe Next Door, Review, London, 2003

Crononauti II i paradossi dei viaggi nel tempo

Nella immagine una  deformazione della struttura del cronotopo causata dalla Terra e dal suo satellite, la Luna.

IMGCome già scritto in un precedente articolo, i viaggi nel tempo non sono più retaggio degli scrittori di fantascienza o di qualche regista cinematografico, ma sono una possibilità, reale e concreta, offerta dalle due grandi teorie relativistiche di Albert Einstein: quella  “speciale” e quella “generale” in unione con la meccanica quantistica.
Infatti, tali teorie ci dicono che, se un corpo è soggetto ad un’alta velocità (confrontabile con quella della luce nel vuoto e cioè circa 300.000 Km/s) oppure a forti campi gravitazionali (come in prossimità di un buco nero o di una stella di neutroni),il tempo ne viene influenzato nel suo scorrere.A tale proposito dobbiamo pensare che la “velocità” con cui scorre normalmente il tempo è di 1 secondo al secondo.
Per capire un po’ meglio questo concetto assolutamente poco intuitivo dobbiamo infatti raffigurarci lo spazio –tempo (o “cronotopo”, mutuando il termine dalla geometria) come un telo perfettamente elastico e ben tirato.
Ora l’alta velocità o la gravità deformeranno questo telo facendolo flettere, ad esempio, nei dintorni di un pianeta, proprio come una palla di biliardo su un telo elastico (vedi figura).
Quindi la velocità del tempo scorre ora più lentamente: ad esempio 0.5 secondi al secondo.
Abbiamo già analizzato in un precedente articolo un modo per costruire praticamente una macchina del tempo (metodologia proposta dal fisico Paul Davies).
Ora vogliamo invece qui occuparci un po’ più approfonditamente dei paradossi che insorgono quando si ha a che fare con i viaggi nel tempo.
Infatti, supponiamo (utilizzando questa volta una situazione meno traumatica della precedente) che il nostro Alberto decida di utilizzare una macchina del tempo per tornare a fare visita a suo nonno, nel passato.
Il viaggio riesce e Alberto si trova finalmente a tu per tu con suo nonno Amilcare che però giovane e non si è ancora sposato con quella che diventerà in seguito la nonna di Alberto.
Ebbene, mentre Alberto sbalordisce il nonno con particolari che solo lui può conoscere della sua famiglia, ecco che Amilcare che è un chiacchierone e si distrae facilmente si dimentica dell’appuntamento con una bella ragazza che sarebbe potuta diventare sua moglie.
Ma la signorina indispettita dal comportamento del giovanotto non lo vuole più vedere.
Ed ecco quindi che per colpa di Alberto il nonno Amilcare non si sposerà più e di conseguenza lo stesso Alberto non sarebbe più potuto nascere.
Questo tipo di paradosso è detto di “coerenza”.Insomma una situazione obiettivamente complicata.Al di là della storiella come ci dobbiamo comportare con i paradossi temporali?
Alcuni scienziati come il celebre Stephen Hawking o Roger Penrose ritengono che qualora Alberto tenti in qualche modo di fare qualcosa che muti significativamente il passato una sorta di “censura cosmica” interverrebbe per impedirlo.Ad esempio, la voce di Alberto potrebbe “misteriosamente” affievolirsi e così la conversazione tra il potenziale (a questo punto) nonno ed il nipote potrebbe finire prima cosicché Amilcare potrebbe essere puntuale all’appuntamento con la ragazza e tutto andrebbe al meglio.Tuttavia che ne sarebbe del libero arbitrio?E poi in che modo questa censura agirebbe?Cioè come farebbe l’universo ad “accorgersi” che qualcosa non va’ e che c’è il rischio che un piccolo crono-vandalo provochi seri guai alla storia futura?Un’altra variante del paradosso, dal significato però assolutamente uguale, è quella proposta dal filosofo Michael Dummett.
Un critico d’arte torna nel passato per conoscere quelloche diventerà il più famoso pittore del futuro.Ebbene, questo pittore, quando incontra il critico fa quadri in verità molto mediocri ben lontani dai capolavori che il futuro (potrebbe?) conoscere.Ed ecco quindi che il critico d’arte che è una persona accorta, gli mostra delle stampe dei futuri capolavori.Il pittore ne è talmente entusiasta che glieli sottrae e li va  a ricopiare.Nel frattempo, il critico d’arte si deve rimbarcare nella macchina del tempo per tornare alla sua epoca e lascia quindi le copie nel passato.A questo punto si è creato un “valore” dal nulla e cioè chi ha fatto lo sforzo creativo per dipingere i capolavori?Questo paradosso è detti di “conoscenza”.Per evitare la bizzarra “censura cosmica” si è utilizzata una teoria quantistica nota come “teoria a molti mondi” che fu proposta nel 1957 da Hugh Everett III.Questa teoria ci dice che ci sono tante copie del nostro mondo quante sono le possibili variazioni quantistiche delle particelle che lo compongono.Quindi un numero altissimo.Per chiarirci le idee pensiamo quindi ad un elettrone che ruota intorno ad un protone nell’atomo di idrogeno.
Ebbene tale elettrone –secondo la meccanica quantistica- non ha un valore dell’energia ben determinato ma si può solo dire che quella energia sarà contenuta in un certo insieme di valori con una certa probabilità.L’impredicibilità della natura a livello quantistico è una caratteristica intrinseca.
Ebbene, secondo la teoria  a molti mondi, per ogni energia dell’elettrone esiste un differente universo e così per tutte le altre particelle.Quindi ci saranno mondi in cui il nonno Amilcare si sposa con la nonna di Albero e mondi in cui questo fatto non avviene più.Ebbene, Alberto nel suo viaggio nel tempo, qualora faccia perdere l’ appuntamento al  nonno, “atterrerà” in un mondo variante in cui lui non è nato e quindi non si genererà alcun paradosso temporale.Ovviamente resta da spiegare quale principio (e quali forze!) di carattere generale agiscano  per far scegliere ad Alberto l’universo “giusto”, ma comunque –in questo caso- sia il libero arbitrio che il principi odi casualità sono salvi.

Bibliografia

Paul Davies, Come costruire una macchina del tempo, Mondatori, Milano, 2003

David Deutsch, Franck Lockwood  La fisica quantistica del viaggio nel tempo, in Le Scienze n. 309, maggio 1994
Marcus Chown, The Universe Next Door, Review, London, 2003

Crononauti come costruire una macchina del tempo

IMG L'idea di poter viaggiare nel tempo ha sempre affascinato l'umanità; nel 1895 H. G. Wells pubblicava "La macchina del tempo" in cui il protagonista faceva un viaggio nel passato e nel futuro remoti.Solo dieci anni più tardi, nel 1905, Albert Einstein, pubblica la Teoria della Relatività Speciale -basata sul concetto di insuperabilità della velocità della luce- in cui si mostra come il “tempo” possa trascorrere in modi diversi a seconda della velocità di un osservatore (è la fine quindi del concetto di contemporaneità e la genesi di un universo meno prevedibile che poi troverà piena e completa conferma nel ‘principio di indeterminazione’ della meccanica quantistica).
Nel 1915 viene invece pubblicata la Teoria Generale della Relatività (attualmente ancora la teoria più completa della Gravità) in cui si dimostra -tra le tante altre cose- che il tempo viene  “rallentato” dalla forza gravitazionale, come se fosse una sorta di “fluido” che scorre nell’alveo dello stesso universo.
Nel 1948 Kurt Godel, un famoso logico matematico, dimostra che un universo rotante può permettere i viaggi nel tempo e nel 1957 John Wheeler congettura l'esistenza di cunicoli spazio – temporali (i cosiddetti wormhole che interconnettono porzioni anche lontanissime del continuum del cronotopo).
Nel 1976 Frank Tipler, fisico – matematico, dimostra che il viaggio nel tempo è possibile nelle vicinanze di cilindri infiniti in rotazione.
Nel 1989 Kip Thorne inizia lo studio di macchine del tempo basate sui cunicoli, mentre nel 1991 J. Richard Gott III propone una macchina del tempo basata sulle corde cosmiche.
Vediamo ora meglio cosa ci dice la scienza (e, meglio precisarlo, non la fantascienza!).
Nel 2010 il professor Seth Lloyd, del MIT di Boston (USA), alla guida di un team internazionale che vede anche un professore italiano della Normale di Pisa, Vittorio Giovannetti, ha proposto una nuova “tecnologia” per i viaggi nel tempo utilizzando il teletrasporto quantistico abbinato all’ “effetto di post-selezione”; tale tecnica risulta particolarmente interessante perché eviterebbe i paradossi temporali.

 Viaggi nel futuro
Per quanto riguarda la possibilità di viaggiare nel futuro essa è realizzabile muovendosi ad alta velocità (prossima o in una frazione apprezzabile di quella della luce nel vuoto, indicata con "c", cioè circa 300.000 Km/s) oppure sfruttando l'accelerazione temporale data nello spazio dalla mancanza di gravità. Infatti sia la velocità che la gravità distorcono il tempo.
Esperimenti su particelle chiamate "muoni" hanno dimostrato la realtà della dilatazione temporale dovuta alla velocità (ad una velocità pari a metà di quella della luce il tempo risulta esser rallentato del 13%), mentre è stata misurata la distorsione temporale tra la cima di una torre (alta 22.5 metri) ed il terreno: 0.000000000000257%. Si calcola che utilizzando un'astronave che viaggi al 99.99999% della velocità della luce occorrerebbero meno di sei mesi per giungere dal 2002 al 3000.
Viaggi nel  passato
Il concetto è quello di alterare il tessuto del continuum spazio-temporale (cronotopo) principalmente mediante intensissime forze gravitazionali. 
Il noto fisico inglese Paul Davies, direttore anche del progetto SETI, per la ricerca di vita extraterrestre, fornisce addirittura un progetto pratico costituito da quattro elementi.
Il progetto di Paul Davies
I) Il collisore
Serve a creare un cunicolo (wormhole) spazio-temporale, che è in pratica una scorciatoia nello spazio per raggiungere immediatamente luoghi anche molto distanti. Vi sono diversi modi per creare un cunicolo ed uno è quello di utilizzare  un buco nero, ma, come è prevedibile,esso è difficilmente maneggiabile. Un modo più semplice per la nostra attuale tecnologia è invece quello di utilizzare la meccanica quantistica. Infatti lo spazio-tempo non è una superficie "piatta" e levigata come una semplicistica rappresentazione ci farebbe supporre bensì è solcata da strutture spugnose ("schiuma") che sono l'effetto della meccanica quantistica stessa sulla struttura della  gravità.Tuttavia i cunicoli spazio-temporali quantistici  compaiono e scompaiono in continuazione. Si può quindi utilizzare un acceleratore per ioni pesanti allo scopo di  creare una bolla di "plasma quark - gluoni".

II) Dispositivo di implosione
Occorre ora dare energia alla bolla creata ad esempio tramite una serie di bombe termonucleari disposte a configurazione sferica per far implodere la bolla di "quark e gluoni". Il risultato sarebbe quello di generare un minuscolo buco nero o un cunicolo spazio-temporale.

 III) Il dilatatore 
Successivamente occorre ingrandire il cunicolo tramite energia negativa generata -ad esempio- dal vuoto quantistico (il cosiddetto "effetto Casimir").

IV) Il differenziatore
Occorre ora generare una sorta di "differenza di potenziale temporale" tra gli estremi del cunicolo ingrandito. Si può quindi utilizzare come differenziatore sia un campo gravitazionale che un acceleratore di particelle per creare -tramite la velocità o la gravitazione- una differenza temporale tra l'ingresso e l'uscita.E' chiaro però che il viaggio nel futuro/passato avrà come date di inizio e fine quelle relative al differenziale temporale creato agli estremi del cunicolo. In pratica, se si creasse oggi (tempo zero) il cunicolo, occorrerebbe aspettare x anni per portare un'estremità ad una certa data e poi solo al tempo x si potrebbe utilizzare il cunicolo, dapprima solo per tornare nel passato di x anni.In seguito all'apertura del cunicolo si può poi attraversarlo nei due versi quando si vuole venendosi cioè a creare una sorta di vero e proprio "ponte spazio temporale".
I paradossi
Ogni qual volta si effettuano viaggi nel passato si creano -inevitabilmente- dei paradossi in quanto potrebbe essere violato il "principio di casualità", che afferma che la causa deve sempre precedere l'effetto.Facciamo l'esempio di Alberto che inventata una macchina del tempo (magari utilizzando il progetto descritto precedentemente) torna indietro nel passato ed incontra suo nonno e -magari incidentalmente- ne provoca la morte prima che quest'ultimo abbia un figlio (il padre di Alberto). E' chiaro a questo punto che lui non può più nascere: si crea quindi un paradosso di causalità.Questo tipo di problemi è stato affrontato in maniera diversi da diversi autori.Stephen Hawking e Roger Penrose (tra i più famosi cosmologi viventi) -ad esempio- pensano che esista una sorta di "censura cosmica" che impedisca di cambiare le relazioni causali e che quindi Alberto venga impedito in continuazione nella sua azione di disturbo del passato. Ad esempio, se Alberto stesse per uccidere il nonno facendogli cadere  inavvertitamente un masso sulla testa, l'azione gli sarà continuamente "impedita" da "qualcosa". Questo, però, entra in forte contrasto con il concetto filosofico di libero arbitrio ed introduce elementi di tipo teologico estranei al procedimento scientifico.
Una soluzione diversa è quella che fa riferimento alla teoria a "molti mondi" di Hugh Everett III.
Utilizzando la meccanica quantistica, Everett pensa che esistano tante copie di universi per quanti siano gli stati quantistici  associati a certi eventi. Ad esempio, si sa che un neutrone decade in altre particelle in un certo tempo medio ma non si sa l'istante esatto del decadimento. Ebbene secondo questa teoria esisterebbero tanti universi quanti sono gli "istanti fondamentali" (chiamati "crononi" e pari ognuno a 10^-43 secondi) in cui il protone decade. Quindi in ogni universo ci sarebbe un "istante" in cui il neutrone decade. Parimenti, ci sarebbero universi in cui Alberto uccide suo nonno e universi in cui questo non avviene, cosicché verrebbe meno il paradosso precedente. Alberto tornerebbe nel passato ed ucciderebbe il nonno ma da quel momento l'universo si sdoppierebbe in una "variante": un universo in cui il nonno è vivo e in cui Alberto nasce e la storia prosegue normalmente ed un universo in cui il nonno è morto e anche Alberto non nasce. Tuttavia, anche questa spiegazione contiene elementi non chiaramente comprensibili dato che non si capisce cosa e come agisca questo “quid” cosmico che “guida” gli sdoppiamenti quantistici nella direzione giusta.
In pratica, il problema dei paradossi temporali, persiste.

Conclusione

Dunque la possibilità di realizzare viaggi nel tempo è finalmente uscita dai film e dai romanzi di fantascienza per divenire patrimonio scientifico accettato dalla comunità scientifica internazionale.La teoria esiste: occorre ora individuare e realizzare una tecnologia più conveniente.La possibilità di manipolare lo scorrere del tempo offre panorami culturali completamente inediti con cui occorre familiarizzarsi e allo stesso tempo conferma la forza del ragionamento scientifico.

Bibliografia:
Paul Davies, Come costruire una macchina del tempo, Milano,  Mondatori 2003
David Deutsch, Franck Lockwood  La fisica quantistica del viaggio nel tempo, in Le Scienze n. 309, maggio 1994.

La "realta' aumentata": verso la tecnomanipolazione dell'ambiente esterno

IMG Nella fotografia una applicazione della realtà aumentata mostra l’immagine del personaggio televisivo Zorro che si anima sullo sfondo di un ambiente reale
Con il termine “realtà aumentata (“augmented reality”), in seguito anche r.a., intendiamo una  tecnologia che permette di “aggiungere” oggetti ed informazioni virtuali all’ambiente naturale creando, di fatto, una realtà mista; in pratica, nella tassonomia cibernetica, la realtà aumentata è una forma particolare del concetto più generale di “realtà virtuale”; la realtà aumentata risulta allora composta dal mondo reale più la realtà virtuale.
Il termine fu coniato dal prof. Thomas Caudell, allora capo progettazione sistemi virtuali alla Boeing ed attualmente (2009) professore all’Università del Nuovo Messico.
Un esempio banale, ma utile a far capire, di r.a. è quello dei dati sportivi che sono sovrapposti alle immagini di una partita.
Un esempio più avanzato, invece, è quello di applicazioni di ultimissima generazione degli “smart phone” (cioè dei cosiddetti “telefonini intelligenti”, come il 3GS Iphone di Apple, Android G1 di Googlephone o il Nokia N95) che permettono di avere informazioni in tempo reale sull’ambiente esterno come monumenti, negozi, percorsi, tariffe etc etc.
Di notevole interesse nell’ambito della sempre più spinta integrazione internet è quello di Wikitude, un programma di realtà aumentata che integra i dati di Wikipedia, l’enciclopedia on – line, con la realtà.
Quindi, ad esempio, puntando la videocamera del nostro Iphone verso il Colosseo, siamo in grado di leggerne, in sovraimpressione, tutta la storia e, magari, facendo partire un’animazione, vedere ricostruita una battaglia tra gladiatori ascoltando le urla degli spettatori, mentre scorre anche l’elenco delle fermate della metropolitana più vicine.
Gli esempi di applicazione sono innumerevoli; alcuni più pratici ed utili, altri dedicati al divertimento.
Già commercialmente avviati sono, ad esempi, i programmi Cad di architettura che servono a simulare nuovi ambienti, ancor prima di costruirli nella realtà.
Pensate a come sarebbe utile se puntando la videocamera del cellulare sul nostro portafoglio potessimo leggere in automatico il codice fiscale, l’ultima dichiarazione dei redditi,ed altri dati per la dichiarazione fiscale;oppure, invece, puntando la videocamera su un cartellone alla stazione o all’aeroporto potessimo leggere in automatico tutti i dati che ci interessano sul treno o sull’aereo che dobbiamo prendere e così via.
Anche i farmaci potrebbero “trasmettere” informazioni sulla loro composizione e scadenza e , magari, dialogare con un chip che portiamo sempre con noi riguardo ai nostri dati clinici.
In campo militare poi, la r.a. è già una realtà di tutti i giorni tanto che i piloti da caccia vedono scorrere sulla loro visiera una serie di dati sulla velocità, la quota, la rotta e sul bersaglio del loro volo;in campo medico si possono avere informazioni virtuali sui dati di un paziente, come le analisi, mentre si effettua una visita.
La base di questa nuova rivoluzione cibernetica che definiamo “realtà aumentata” è nel concetto conosciuto come a  “Internet delle cose”, cioè la possibilità che i comuni oggetti di tutti i giorni, dalla radio, al tostapane, al frigorifero, all’automobile, al semaforo, alla Tv, all’orologio, siano in qualche modo “catalogate” con una etichetta internet che possa essere “letto” dallo smart phone o da altro terminale telematico portatile.
Tuttavia quelle che abbiamo raccontato sembrano più anticipazioni da fantascienza che applicazioni che ritroveremo nella vita di tutti i giorni, ma non è così.
Infatti, proprio da quest’anno, sono disponibile le prima applicazioni pratiche della realtà aumentata.
Un esempio significativo si tale possibilità è l’applicazione “Metro Paris Subway” disponibile per l’Iphone 3GS della Apple (per i modelli 3G la versione è “statica”, cioè consiste solo in un elenco e distanze) e che permette, puntando la videocamera su, ad esempio, un palazzo, di conoscere tutte le fermate metropolitane, di autobus e parcheggi di taxi delle vicinanze.
Per “conoscere” intendiamo la distanza ed anche la possibilità di avere la strada indicata direttamente sullo schermo dell’Iphone. Analoghe applicazioni stanno per essere disponibili per Londra e Tokio.
Per fare una esperienza diretta di r.a. vi invito a cliccare il sito:
http://ge.ecomagination.com/smartgrid/?c_id=yahooaugreal#/augmented_reality
Dopo aver stampato un foglio guida ed aver attivato la telecamera ed il microfono del vostro computer potete interagire in r.a. con due impianti di fonti rinnovabili, eolico e solare.Per l’eolico soffiando sul microfono aumenterete la velocità di rotazione delle pale.
In questo caso, “l’Internet delle cose” è simulata da un software che individua dei punti fissi sul foglio e tramite tecniche di “rendering” e “tracciamento” implementa la r.a…
Un altro esempio è dato da questo filmato su YouTube: http://www.youtube.com/watch?v=QoZRHLmUKtM
Come si vede, inquadrando con l’Iphone un foglio con particolari simboli, si genera una realtà aumentata; nel caso particolare un cartone animato di un cane si “anima” quando è inquadrato un particolare simbolo oppure, inquadrando una mappa, vengono forniti dati utili ad interventi di salvataggio.
Questa possibilità costituirà la base di una nuova ed ulteriore rivoluzione digitale che promette di trasformare radicalmente il nostro mondo e la nostra vita compiendo un decisivo passo verso quella interconnessione globale di tutti i sistemi del mondo con i satellite nello spazio che va verso la direzione di una forte integrazione uomo – macchina di cui abbiamo parlato ormai tante volte e che è conosciuto con il nome di “Cyberworld” o “TeknoGaia” .
Un nuovo passo importante dell’evoluzione della specie umana e della nostra civiltà.Nota: questo articolo fa riferimento a dei siti web e a filmati su YouTube che, in futuro potrebbero non essere più disponibili

Verso Cybergaia

L’uomo è una corda tesa fra l’animale e il superuomo” Friedrich Nietzsche

di Giuseppe Vatinno

Membro del network dei transumanisti italiani

Giornalista

Fisico

Introduzione

L’evoluzione “naturale” (cioè il cambiamento del fenotipo, espressione del genotipo) dura sulla Terra da più di 4 miliardi di anni (per precisione da 4.4, cioè da quando cioè si è resa disponibile l’acqua) ed ha attraversato molte fasi; dagli elementi primordiali  dovuti all’esplosione di una supernova, alla materia inorganica ed infine a quella organica, attraverso il processo darwiniano [1] della mutazione e della selezione naturale degli organismi più adatti alla sopravvivenza nell’ambiente.

Un ritmo forse lento, ma che possiede la caratteristica della inesorabilità dell’applicazione costante.La comparsa di Homo Sapiens sulla Terra, circa 200 milioni di anni fa, ha indubbiamente costituito un momento speciale dell’evoluzione; questa specie, a cui noi apparteniamo, ha infatti utilizzato l’intelligenza ed il linguaggio, per evolversi e divenire egemone (in un certo senso) sul pianeta.

Un’altra caratteristica da tenere ben presente è che Homo Sapiens, a differenza di tutte le altre specie può influenzare coscientemente l’ambiente che lo circonda e lo ospita; diciamo subito che lo ha già fatto circa 10.000 anni fa, quindi all’inizio del periodo chiamato neolitico, o della “pietra nuova”, quando ha inventato l’agricoltura e con ciò gli insediamenti urbani e la società; un importante evento critico: è stata poi la rivoluzione industriale nel periodo 1760 – 1880 ed iniziata con l’introduzione della macchina a vapore di Watt, nel 1765 (dopo alcuni prototipi precedenti).Preparata dallo spirito illumista e scientifico del settecento, l’industrializzazione ha cambiato significativamente l’ambiente terrestre: da un lato vi è stato uno sviluppo esponenziale delle invenzioni e del progresso tecnico – scientifico, dall’altro è intervenuta direttamente sul bios, ad esempio, sul clima e sul territorio, alterandoli.

Tuttavia, anche questo è un fenomeno “naturale”; ci dobbiamo, infatti, sempre aspettare che quando si altera una “fisiologia” (in questo caso dell’intero pianeta) ci siano anche effetti “tossicologici”. L’intelligenza di Homo Sapiens, è, o dovrebbe essere, quella di coniugare sviluppo e sostenibilità dello stesso, ma non intendo ora approfondire questo complesso tema. Quello che mi preme porre in evidenza è che l’evoluzione sta continuando sul pianeta Terra e che Homo Sapiens la influenza già direttamente e fortemente ed in futuro la potrebbe influenzare sempre di più.

Una piccola nota sul concetto di ciò che è “naturale” e ciò che non lo è.

Nella nostra società è invalso l’uso scorretto di pensare che vi sia da una parte la “natura” e da una parte l’“uomo” e che la prima sia sostanzialmente contrapposta al secondo, almeno per quanto riguarda l’azione nel suo complesso.

Tuttavia, così non è; infatti l’azione umana non è che il proseguimento di quella naturale.

Insomma, si tratta pur sempre della natura che continua ad agire potenziata finalmente da una volontà che ne guida l’evoluzione in senso ora che può essere finalistico perché guidato dall’elemento coscienziale.

Le macchine (altra espressione che dovremmo cominciare a non considerare più “artificiali”, ma, appunto, naturali nel senso sopraddetto), nate per aiutare l’uomo nei compiti lavorativi, hanno cominciato esse stesse ad evolversi (guidate dalla coscienza umana) adattandosi all’ “ambiente” secondo leggi sostanzialmente simili a quelle dell’evoluzione ancora chiamata “naturale”(e cioè macchine che “servono” bene allo scopo sono riprodotte, mentre i modelli non funzionali non sono richiesti e quindi vengono eliminati dalla produzione).

Stiamo forse andando verso un “superorganismo globale”, intuito dal grande paleontologo e gesuita Pierre Teilhard de Chardin (1881 -1955)?

Ci avviciniamo alla “singolarità tecnologica” preconizzata dai futurologi Vernor Vinge [2] (1945 -) e ribadita recentemente da Ray Kurzweil (1948-), dopo essere stata introdotta per la prima volta dal matematico Von Neumann?

E se sì quali ne sono gli elementi distintivi?

 

Lo sviluppo della infrastruttura di CyberGaia

Strumenti per cercare, vedersi, conoscere, parlare, rivedere, vendere, pagare, vivere

Per parlare di “salto evolutivo” occorre studiare analiticamente l’evoluzione di una struttura sociale e individuarne i punti di discontinuità in cui vi sono stati cambiamenti rilevanti nelle “proprietà” della struttura sociale stessa.

L’idea base è che stiamo dirigendoci, come detto, verso una “singolarità tecnologica”, cioè un “punto” dell’evoluzione tecno-biologica in cui si mostrerà, come epifenomeno, una sorta di super -intelligenza non biologica o bio-cibernetica, in grado di segnare un processo evolutivo di tipo discontinuo; questa è una possbile definizione di “singolarità tecnologica”.

Di tutti i cambiamenti possibili quelli che riguardano la comunicazione sono i più rilevanti; infatti, comunicare vuol dire aumentare le possibilità di conoscenza e costruire strutture più complesse e sofisticate. La nascita del linguaggio è stata senza dubbio una di questi momenti topici e particolari; come lo è stata la nascita della stampa, del telegrafo, delle onde radio, della tv ed infine di Internet.

Una rete comunicativa globale e bidirezionale (elemento fondamentale, non presente prima se non nel linguaggio comunicativo) mondiale è un forte presupposto teorico per affermare ciò.

Internet ha, dal 1990, e quindi in circa 20 anni, cambiato completamente il nostro mondo forse più della invenzione della stampa da parte di Gutenberg.

Ora la gente, le istituzioni, gli apparati produttivi sono interconnessi a livello mondiale. Questo ha liberato incredibili energie in termini diinformazione disponibile che è i carburante per produrre altra scienza  e tecnologia evolutiva; insomma un circolo virtuoso che sembra auto accelerare “Legge dei ritorni accelerati” di Ray Kurzweil).

Se poi andiamo a studiare le nuove caratteristiche di Internet ci accorgiamo che alle prime funzionalità basiche costituite, ad esempio, dalla email, si sono aggiunte incredibili capacità nuove, come quella di inviare istantaneamente video e audio.

Come noto, alla iniziale Internet si associò sul finire degli anni ’80 dello scorso secolo, il World Wide Web, cioè la grande ragnatela mondiale.

Nel contempo il cosiddetto web 2.0 (15 miliardi di pagine nel 2009) ha sviluppato Google (pur essendo ancora attivi motori di ricerca come Yahoo), il super potente motore di ricerca dotato di mappe satellitari che di fatto hanno digitalizzato l’intero territorio mondiale, YouTube, per condividere i propri video mondialmente, Wikipedia la grande enciclopedia mondiale costruita con il contributo degli stessi utilizzatori, i blog, spazi apertiti di dibattiti, e, ultimamente, le cosiddette “reti sociali”, che uniscono fisicamente gli abitanti dell’intero globo, condividendone in tempo reale le azioni e gli spostamenti, le idee, le passioni e tutto il resto che può esser e pensato, Skype per telefonare  a basso costo in tutto il mondo, Flickr per condividere le fotografie, eBay per le aste on – line e Paypal per i micropagamenti

Altra funzionalità fondamentale è poi “Second Life”, cioè il mondo di una realtà virtuale parallela a quella fisica in cui è ricreato dai programmatori un mondo basato su quello reale con tanto di abitanti (“avatar”) in cui tutti possono incarnarsi.

Insomma, sono i nostri occhi ci accorgiamo che il world wide web, la grande rete mondiale che unisce gli esseri umani, inventata al Cern nel 1988 da Lee, sta evolvendo, proprio come un organismo guidato delle regole dell’evoluzione biologica darwiniana o forse dovremmo dire lamarkiana, in quanto i “caratteri acquisiti” (come, ad esempio, una miglioria software, vengono trasmessi alla generazione successiva). All’evoluzione genetica si è affiancata quella “memetica” guidata dalle idee e non più, appunto, dai geni.

In altri articolo ho affrontato i nuovi aspetti della Rete; in questo voglio tracciare una breve storia di questa nuova funzionalità di CyberWorls, che sono le “reti sociali”.

I Social Network gli “organi” socializzanti della Rete

Il fenomeno dei “Social Network” (in seguito SN) è relativamente (anche per i tempi accelerati della rete) recente.

Il più noto, FaceBook, è del 2004, MySpace tra i primi, è del 2003; l’ultimo arrivato, Twitter, è del 2006.

Un SN è quindi uno strumento digitale che, installato su un computer o un cellulare, magari possiamo parlare, più in generale, di “smartphone” intendendo qualcosa a metà strada tra il computer tradizionale ed il cellulare, permettere di condividere i propri dati, le proprie informazioni con molte persone, definite tecnicamente “amici” o anche con “sconosciuti” che però permettono l’accesso pubblico a parte o alla totalità dei propri dati on line.

Come già accennato in precedenza i SN rappresentano una grande possibilità comunicativa globale, nella direzione della costituzione di un “GlobalBrain” o CyberGaia che permetta una connessione totale e globale.

Il fenomeno evolutivo di Internet incomincia ad interessare molto anche i sociologi e gli psicologi; il “nuovo essere” globale che caratteristiche avrà? Sarà una semplice “somma delle parti” (cioè gli “utenti”) o qualcosa di più, qualitativamente diverso, qualcosa che è più della “somma delle parti”? (come è probabile).

Ed ancora, l’emergere si una struttura di tipo olistico sarà seguita, come spesso avviene, dallo sviluppo di epifenomeni che nel nostro caso potrebbero addirittura riguardare la genesi di una “coscienza globale” , come dice la già citata  teoria della singolarità tecnologica?

Interrogativi affascinanti che ci dispiegano intere praterie di possibilità.

Il concetto di Rete sociale

Utilizziamo, tecnicamente, il sostantivo “social network”, per le “reti sociali” digitali, cioè impiantate su internet.

Più in generale, i sociologi conoscono e studiano la struttura generale ed astratta di “reti di interconnessione sociale”  RIC di cui i SN fanno parte, come sottogruppo.

Le reti di interconnessione sociale, le RIC, sono, ad esempio, i partiti, le religioni, i club. Il loro studio teorico ci dice che i membri di una RIC possono, in media, conoscere solo 150 persone del loro gruppo. Tale numero, in sociologia, prende il nome di “numero di Dunbar”. L’avvento dei SN sembra superare questo concetto limitativo e crea dinamiche incredibilmente accelerate di conoscenza e di interazione.Il dr Jacob Moreno è il fondatore della sociometria che si occupa di studiare le “metriche”, cioè le misure di queste entità sociali.

appendice breve storia dei Social Network

FACEBOOK (Inizialmente chiamato “The Facebook”)

Nasce nel 2004 grazie alla intuizione di Mark Zuckenberg, 19 anni allora, (Boca Raton, 1984) che vuole mettere in rete l’”annuario” degli studenti della sua università, Harvard.

Inizialmente si trattava solo di una fotografia e di un profilo, utile ad orientarsi nel mondo dell’università ma anche a ritrovare vecchi amici di scuola; subito dopo altre università si affiancano, poi le High School, poi le aziende ed infine i semplici utenti.

La raccolta pubblicitaria (unica forma sostanziale di finanziamento) sarà nel 2009 intorno ai 70 milioni di $.

TWITTER (dal verbo inglese “to tweet = cinguettare”)

E’ un SN a struttura di mcroblogging che fornisce pagine con messaggi di 140 caratteri al massimo e che possono essere aggiornate tramite SMS (da cui il limite),Email e messaggistica istantanea.

Twitter, in grande espansione, è stato creato dalla “Obvious Corporation” di San Francisco, da Jack Dorsey (Saint Louis, Missouri 1976) e da EvanWilliams e Biz Store.

 

MYSPACE

E’ una comunità virtuale creata nel 2003 da Tom Anderson (1970) e Chris DeWolfe (1966).

Era proprietà della Intermix Media e nel 2005 è stata acquistata per 580 milioni di $ dalla news Corporation di Rupert Murdoch.

E’ particolarmente utilizzata dai gruppi musucali; il suo fatturato per il 2009 è previsto in 25 milioni di $ (fonte: eMarketer).

FRIENDESTER

Fondato da Jonathan Abrams nel 2002 a Mount View, California, con lancio nel 2003,Ha 90 milioni di utilizzatori, specie in Asia (attuale sede aSydnesy, Australia).

LINKEDIN

E’ stato fondato nel 2002 da Reid Hoffman (1967); ha nel luglio 2009 43 milioni di utenti ed è più specifico per le offerte di lavoro

ORKUT

Fondato nel 2004 da Orkut Buyukkokten, impiegato di Google si è sviluppato particolarmente in Brasile ed India e nei Paesi del terzo mondo.

Conclusioni

Siamo, con grande probabilità, in una fase molto particolare dello sviluppo dell’umanità; siamo infatti entrati in quell’era che è stata definita “antropocene”, cioè “l’età dell’Uomo”.Lo sviluppo esponenziale delle conoscenze scientifiche e delle loro applicazioni tecnologiche ha rivoluzionato e sta sempre più rivoluzionando la vita della razza umana. L’”antrophos” segna un punto di indubbia “discontinuità” evolutiva; dal “caso” si passa, per giocare con le parole di un famoso saggio di Jaques Monod, alla “necessità” a sua volta dettata dalla intelligenza adattativa della specie umana.

Il fenomeno è tipicamente non lineare e cioè l’instabilità evolutiva che si potrebbe manifestare come “singolarità tecnologica” sarà generata, quando i tempi saranno propizi, da un “piccolo” cambiamento tecnologico che produrrà l’epifenomeno di una collettivizzazione generalizzata della conoscenza caratterizzato da nuove “proprietà emergenti”.

Internet e le telecomunicazioni mostrano uno dei fenomeni più evidenti, sotto gli occhi di tutti, ma non gli unici.

Tutti i progressi tecnico – scientifici mostrano una accelerazione non lineare.

I social network solo gli ultimi arrivati tra gli strumenti associati alla Rete, ma già ora si stanno dimostrando tra i più importanti (si pensi, ad esempio, all’utilizzo fattone durante la vincente campagna elettorale dal Presidente degli Stati Uniti, Barack Obama nel 2008).

L’evoluzione prenderà definitivamente una nuova strada e la “natura” questa volta “naturata” dalla ars tecnologica di Homo Faber diverrà sempre più cosciente di se stessa.

E questo procedimento, probabilmente, potrà continuare e raffinarsi se, insieme alle immense possibilità, riusciremo anche a gestire i pericolo ed i rischi che tale epocale trasformazione comporta.

E sarà allora che Homo Faber, discendente di un ominide insonne che in una notte di luna piena di milioni di anni fa, nella savana africana, volle sfidare le tenebre scendendo dai sicuri alberi, diverrà esso stesso “natura evolutiva” cosciente.

Noi, all’inizio del terzo millennio, ne siamo umili testimoni e pionieri.

 

Bibliografia

Dawkins Richard, Il gene egoista, Mondadori, Milano 1994

Dyson Freeman J. Turbare l’universo, Bollato Boringhieri, Torino 1999  (2 ed.)

Dyson Freeman J, Il Sole, il genoma e Internet, Bollati Boringhieri, Torino 2000

Dyson Freeman J. Infinito in ogni dimensione, Rizzoli 1989

Drexler K. Eric e Peterson C., Unbounding the Future: the nanotechnology Revolution, William Morrov and Company, Inc., New York 1991

Drexler K. Eric, Engines of creation. The coming era of nanotechnology, Anchor Books, Usa 1986

Kurzwell Ray  The age of spiritual machines, Penguin Books, Usa 1999

Kurzwell Ray The age of intelligent machines, MIT Press, Cambridge Massachusetts, 1990

Kurzweil Ray, La Singolarità è vicina, Ed. Apogeo, Milano 2008

Monod J, Il caso e la necessità, Mondadori, Milano 1970 C. Pelanda, Futurizzazione, Sperling & Kupfer Editori, Milano 2003

Prigogine Y., Stengers I., La nuova alleanza, Einaudi, Torino 1981

Il transumanesimo e la spiritualita' verso una "tecnospiritualità"?

La dottrina transumanista (in seguito H+) è una “visione del mondo” che è incentrata su un approccio fondamentalmente laico e razionale alla “realtà”.
Questo significa, basicamente, che il “modo di vedere le cose” dei transumanisti è sostanzialmente laico e non presuppone l’esistenza di un “essere supremo” (utilizzando un termine del periodo illuminista) che ha creato o emanato l’universo e di una relativa “metafisica”.
Parimenti, dal punto di vista morale, pare emergere più una morale di tipo kantiano, cioè sostanzialmente laica, basata su valori condivisi e universali.
Un esempio di tale morale laica è espresso dal primo principio categorico contenuto nell’opera di Kant, “critica della ragion pratica”:
Agisci in modo che tu possa volere che la massima delle tue azioni divenga universale "
Tuttavia, una certa percentuale di transumanisti si riconosce in insegnamenti “spirituali” in senso lato, una sorta di “tecnospiritualità” che, di fatto, unisce sia la dimensione pragmatica e proattiva (nel senso estropico del termine, come definito dal filosofo Max More); da indagini condotte si individuano, anche in qualche transumanista con ruoli direttivi a livello mondiale, principalmente interessi per la filosofia del buddismo Zen, ma anche degli altri credi religiosi, principalmente induismo e cristianesimo.
La domanda ovvia che si pone a questo punto è: come conciliare questi due aspetti apparentemente contradditori?
La risposta dipende naturalmente dalle sensibilità individuali ma, in generale, potremmo dire che le due visioni non sono così contraddittorie come può sembrare a prima vista e quindi si potrebbe appoggiare una cauta apertura a credenze di tipo “spirituale”.
Infatti, sia dal punto di vista strettamente metafisico e della relativa “morale” che più propriamente “pratico” nel senso di relativoall’azione o “pragma”, possiamo dire che, prendendo come  esempio la dottrina cattolica,l’esistenza di un “quid” che può sopravvivere alla morte fisica non inficia, in linea diprincipio, le aspettative H+, ad esempio, sul “mind uploading”, o sulla criogenia o sulla longevità né viene inficiato, come detto, l’agire nella società.
Potremmo solo notare, a volte ed in certi soggetti, un “rallentamento” della propensione allo sviluppo degli elementi più strettamente “materiali” dell’agire di H+ (perché mediati da una componente metafisica).
Tuttavia, dato che la stragrande maggioranza degli aderenti ad H+ è laica ed atea, anche l’esistenza di questa componente minoritaria al suo interno può essere vista un arricchimento culturale più che un freno allo sviluppo del movimento.
Anzi, dal punto di vista strettamente pragmatico, una apertura alle religioni ed ai movimenti spirituali può rendere più accettabile le idee H+ alla maggioranza della popolazione mondiale.  

Rubrica "insoliti fatti" di giugno 2009 principia cybernetica project: verso il superorganismo sociale di pierre theillard de chardin

IMGGirando nei meandri di Internet ci si può imbattere, se guidati dalla curiosità di certe cose, in un sito particolare, quello del Principia Cybernetica Project (in seguito PCP). Tale sito è all’indirizzo: http://pespmc1.vub.ac.be (Principia Cybernetica Web); il PCP  ha sede operativa presso la “Libera Università di Bruxelles”.
Il nome del Progetto deriva dalla famosa opera “Principia Mathematica” di Bertrand Russel (1872 – 1970) e Alfred Whitehead (1861 – 1947).
I colori sono accattivanti: color sabbia, blu, rosso. con i saettante nero del testo scritto.
Di cosa si occupa il sito?
E’ presto detto. Si occupa di dispiegare al lettore un intero sistema filosofico, un “systema mundi” che ha l’ambizione di affrontare i temi fondamentali della scienza e della filosofia inquadrandoli in una struttura organica che ha la sua base nella “cibernetica evolutiva” e che cerca di rispondere, appunto, ai grandi temi dell’umanità di tutti i tempi, “chi siamo, cosa facciamo, dove andiamo”, supportata dalla filosofia del pragmatismo di William James (1842 – 1910) e Charles Peirce (1839 – 1914) e dall’influenza di Claude Helvetius (1715 – 1771), sensista.
Il PCP fa concepito dal fisico Valentin Turchin che viveva fino al 1977 nell’Unione sovietica e che poi si trasferì negli USA.
Nel 1987 Turchin entrò in contatto con l’informatico Cliff Joslyn, un teorico dei sistemi statunitense, ora ai Los Alamos Laboratories e con lui ideò una rete semantica di ipertesti ed insieme fondarono il PCP scrivendo un manifesto cibernetico.
Nel 1990 un altro fisico, il belga Francis Heylighen, si unì al progetto.
In pratica il sito, ancora attivo, è un link semantico che si dipana in migliaia e migliaia di pagine ricche di contenuti scientifici e filosofici, ma anche religiosi e sociali, oltre che naturalistici. Una vera e propria miniera di informazioni.
In breve ed in estrema sintesi, il PCP ci dice che siamo nell’”età dell’uomo” o “antropocene”, come l’ ha definita il nobel Paul Krutzen e che l’ uomo sta evolvendo le proprie forme di coscienza verso un superorganismo in cui tutto è in comune e tutto e condiviso.
Tale “essere” ha diversi nome: “Metaman” (“Oltreuomo”), “Cybion”, “organismo sociale”.
Tale essere vive nella “noosfera” o “sfera del pensiero”, assimilabile a Internet; il primo a parlare di noosfera fu il filosofo gesuita Pierre Teilhard de Chardin (1881 – 1955) che vedeva il cristianesimo come un continuo evolvere dell’uomo verso un super – essere rappresentato dal “Cristo cosmico” che rappresentasse in sé tutta l’umanità (si veda, ad esempio, “Il fenomeno umano” 1955 e “L’ambiente divino” del 1957). De Chardin fu visto molto criticamente dalla Chiesa cattolica e solo recentemente il suo pensiero è stato rivalutato.
Nel PCP esiste una sorta di “panteismo cosmico”, di un auto evolversi della società umana, di fase in fase, fino ai limiti della divinità; in questa evoluzione il PCP ricorda i principi filosofici e religiosi dell’induismo e di Plotino e apre la via a quello che si chiama, un teknomisticismo (scritto proprio così) di cui la Rete si sta facendo paladina.
In Schopenhauer (1788 – 1860) il mondo è “volontà più rappresentazione” per il PCP è invece “azione più rappresentazione”, rappresentando l’azione, la dinamicità, l’atto, il segno semantico dell’azione di Athropos sulla Natura.
Quello del PCP è, in definitiva, un modo per conciliare gli eterni opposti di razionalità e misticismo e sembra aver raggiunto ottimi risultati.

Le interpretazioni della meccanica quantistica

“Se davvero potete penetrare le sementi del tempo, 
e dire quale granello germoglierà e quale no,
parlate a me…” (Banquo, Macbeth Shakespeare atto I, scena 3)

Introduzione 
La meccanica quantistica (in seguito anche m.q.) si è dimostrata la migliore teoria che abbiamo per descrivere il mondo atomico; come è noto, a tale livello, quella che definiamo “realtà” viene recepita in una accezione assai diversa da quella che siamo abituati a considerare a livello macroscopico, cioè del mondo della fisica classica e che rende conto del mondo in cui viviamo normalmente. Essa nacque nei primi anni del XX secolo, ad opera del fisico tedesco  Max Planck (1858 – 1947), nobel per la fisica nel 1918 ed Albert Einstein (1879 -1955), tedesco poi svizzero ed infine statunitense, nobel per la fisica nel 1921, , per spiegare alcuni fatti del mondo atomico incomprensibili alla luce della meccanica classica o newtoniana. Tali fatti sono la stabilità degli elettroni nelle orbite atomiche, l’effetto fotoelettrico, la “catastrofe ultravioletta” in relazione alla cosiddetta emissione di corpo nero. In pratica ci si accorse che le grandezze fisiche, in particolare l’energia, a livello atomico è quantizzata, cioè non poteva assumere un valore continuo, come nel mondo classico, ma può assumere solo valori ben determinati  (“autostati”), con una certa probabilità. Da notare che, nel mondo classico in cui viviamo, non vi sono effetti quantistici e quindi gli stati atomici subiscono un processo chiamato “decoerenza quantistica” quanto sono interpretati come facenti parte di oggetti del mondo usuale. Tuttavia, permane il grande  problema di capire perché nel mondo usuale macroscopico non osserviamo i fenomeni quantistici.
A causa del principio di indeterminazione di Werner Heisemberg (1901 -1976), formulato nel 1927, dal fisico tedesco nobel nel 1932, non è possibile conoscere con precisione grande quanto si vuole alcune coppie di osservabili fisiche (chiamate “variabili coniugate”) come, ad esempio, la posizione di una particella o la sua quantità di moto oppure la sua energia o l’istante in cui la si localizza. Questo è intuitivo: infatti, a livello quantico, per “osservare” una particella dobbiamo per forza perturbarla anche usando qualcosa di molto piccolo come può essere un fotone (cioè un quanto di luce). Quindi possiamo dire che, ancor prima della creazione della m.q., dal punto di vista filosofico si poteva prevedere che la “realtà” non potesse essere perfettamente “conoscibile” nel senso che abbiamo prima spiegato. Per le variabili “posizione” x e “quantità di moto” p si ha (h tagliata costante di Planck):
\Delta x\Delta p \ge \frac{\hbar}{2}  
L’equazione che governa i fenomeni quantistici è l’equazione del fisico austriaco Erwin Schroedinger  (1887 -1961) nobel nel 1933,e, nel cosiddetto limite classico, essa si trasforma in quella di Newton. La funzione incognita è chiamata “funzione d’onda” (in seguito anche f.d.o.)ed è indicata dalla lettera greca psi, funzione delle coordinate spaziali indicate con il vettore e del tempo t. Tale equazione è quindi:
\left(i \hbar \frac{\partial}{\partial t} + \frac{\hbar^2}{2 m} \nabla^2 - V(\mathbf{r}) \right) \psi (\mathbf{r}, t) = 0
dove V(r) è un eventuale  potenziale sterno.
Una volta nota la f.d.o. di un sistema è possibile conoscere la probabilità associata alla misurazione di certe variabili dinamiche come, ad esempio, l’energia. La probabilità risulta infatti proporzionale al quadrato del modulo della funzione d’onda, secondo quanto definito dal fisico tedesco Max Born (1882 - 1970), nobel per la fisica nel 1954.
P = \langle \psi \vert \Pi \vert \psi \rangle = \vert \langle \psi \vert \phi \rangle \vert ^2.
Come si vede, il principio di Heisemberg, costringe a parlare solo di valori di probabilità e non di certezza nelle misure quantistiche.
Dunque, da un punto di vista puramente funzionale, cioè pragmatico, la f.d.o. risolve tutti i problemi del mondo atomico e, naturalmente, subatomico, ma il vero aspetto problematico della m.q. è nel significato, cioè nelle interpretazione da dare alla m.q. tramite la f.d.o.
In questa ottica si aprono diverse possibilità che in un certo senso hanno dato origine a vere scuole interpretative di cui la capostipite si ri fa alla cosiddetta interpretazione ortodossa di Copenaghen, dovuta al fisico danese Niels Bohr (1885 -1962), nobel nel 1922 ed a  Heisemberg  (che, oltre al celebre principio di indeterminazione, sviluppò anche una “meccanica delle matrici” che poi si rivelò identica alla meccanica differenziale di Schroedinger). Da notare che, in m.q., ogni sistema quantistico è descritto da un vettore nello spazio (lineare) di Hilbert.La linearità dello spazio permette i tipici fenomeni di sovrapposizione degli stati tipici della m.q. Dunque uno stato fisico è rappresentato da un vettore di stato (“ket” in m.q.) che appartiene ad uno spazio di Hilbert (dal nome del matematico David Hilbert, 1862 -1943). Per “estrarre” l’informazione dal ket occorre proiettarlo su un’autostato di una osservabile fisica generando un nuovo spazio di Hilbert, coincidente con la funzione d’onda, chiamato “duale”. Nella meccanica delle matrici gli operatori relativi a grandezze coniugate non commutano. I risultati di una misura sono i possibile auto valori della matrice associata.
La m.q. fu poi estesa nella meccanica quantistica relativistica (chiamata poi “teoria dei campi”) dal fisico francese Paul Maurice Dirac (1902 -1984, premio nobel nel 1933).L’equazione di Dirac è:
(A\partial_x + B\partial_y + C\partial_z + \frac{i}{c}D\partial_t - \frac{mc}{\hbar})\psi = 0
dove A, B, C, D sono opportuni parametri,”i” l’unità immaginaria e “c” la velocità della luce nel vuoto. La soluzione dell’equazione di Dirac portò alla scoperta delle antiparticelle.
Invece, i tentativi di unire la meccanica quantistica e la relatività generale  hanno prodotto molte teorie (stringhe, supergravità, loop, teoria dei  twistor etc.) ma nessuna ancora pienamente convincente.
Tuttavia, in tale ottica possiamo citare l’equazione di Wheeler – De Witt:
\hat{H} |\psi\rangle = 0
ove H è l’hamiltoniana (cioè una grandezza riconducibile all’energia totale del sistema) nella relatività generale quantizzata e la  “psi” non è più la f.d.o. usuale della m.q., ma un campo funzionale che tiene conto di tutta la geometria e la materia dell’intero universo ed è quindi chiamata “funzione d’onda dell’universo”,  f.d.o.u. Stephen Hawking (1942), professore britannico di matematica a Cambridge (UK), ha proposto una f.d.o.u. che obbedisce alla equazione di Wheeler –De Witt e si propone come una “Teoria del tutto” (t.d.t.).

L’interpretazione della Scuola di Copenaghen
L’interpretazione della m.q. di Bohr e di Heisemberg (1927) è quella di considerare la funzione d’onda del sistema come depositaria, tramite il suo modulo quadrato, di tutte le informazioni sul sistema stesso. In questa ottica le particelle, come nel caso degli elettroni in orbita intorno al nucleo atomico, sono da considerarsi, a causa del principio di indeterminazione, de localizzate nello spazio (naturalmente con probabilità totale pari a 1, cioè la certezza statistica). In ogni punto dello spazio sarà dunque associata una probabilità di trovare l’elettrone ma mai la certezza assoluta. Questa indeterminatezza è frutto della perturbazione della misura.
abilità intrinseca del sistema atomico. Infatti, come già detto, non si può conoscere la realtà senza osservarla e quindi, a livello atomico, ma anche molecolare, perturbarla. La teoria è locale ed a-causale, cioè non vale il principio di causa ed effetto in quanto ad una causa certa, l’osservazione, non è detto che corrisponda un effetto certo e ben conoscibile. Da un punto di vista strettamente tecnico, la m.q. di Bohr fu sviluppata come “meccanica delle matrici” seguendo l’impostazione matematica di Heisemberg. Successivamente, Schroedinger riuscì  a sviluppare la m.q. in forma di una equazione differenziale che porta il suo nome. Presto si capì che le due versioni, matriciale e differenziale erano del tutto equivalenti.
Alcuni problemi della interpretazione di Copenaghen
Alcuni grandi fisici del tempo, principalmente Albert Einstein, non erano affatto convinti della descrizione della natura che emerga dalla interpretazione danese della funzione d’onda. Einstein, infatti, riteneva che la “realtà” avesse una esistenza intrinseca che non dipendesse quindi dall’osservatore come sembrava emergere dalla interpretazione di Bohr. Fin da subito furono note alcune bizzarrie della teoria come il famoso gatto di Schroedinger, contemporaneamente mezzo vivo e mezzo morto, o l’esperimento di Young delle due fenditure. In questo esperimento un fotone (o una particella atomica) scolpisce uno schermo con due fenditure. Se non la si osserva tale particella si presenta come onda (forma la caratteristica figura di diffrazione) se invece la si osserva il fotone “sceglie” una delle due fenditure e si distrugge l’interferenza. Dunque il solo atto di osservare la particella “modifica” la sua natura e determina il percorso. Una notevole variante dell’esperimento della doppia fenditura è stata proposta dal fisico statunitense John Archibald Wheeler (1911 -2008); in questo caso, con una modifica dell’esperienza della fenditura, si può, osservando  a posteriori il percorso del fotone, “agire” sul passato determinando quale percorso ha effettivamente “scelto” il fotone. Tornando alle stranezze della teoria quantistica, Einstein riuscì a produrre nel 1935 quello che divenne noto come “paradosso di Einstein -  Podolsky - Rosen” che, a dire degli autori, dimostrava l’incompletezza della m.q. e la necessità di trovare una teoria più completa con l’introduzione di “variabili nascoste” che facessero scomparire l’intrinseca aleatorietà del processo di misura quantistico. Il paradosso, poi confermato sperimentalmente, riguarda la possibilità di conoscere istantaneamente (violazione della località), lo stato quantico di una particella, nel caso in esame la “posizione” anche a distanza arbitraria. questo non violerebbe l’assunto base della teoria della relatività ristretta che afferma che è impossibile l’esistenza di velocità superliminari nella forma di trasferimento di informazione. Nel caso del paradosso infatti non è possibile trasmettere informazione anche se la velocità è effettivamente superiore a quella della luce. In seguito, nel 1952, David Bohm riformulò il paradosso EPR utilizzando lo spin di due particelle e non la posizione e la quantità di moto. Si noti che, se si conserva, anche classicamente la conoscenza di uno dei due spin influenza immediatamente il valore dell’altro, ma in m.q. la differenza è che non si possono misurare con esattezza i due spin correlati a causa del principio di indeterminazione e che quindi si “trasferisce” comunque una “decisione” sullo stato quantico.  Questo è un esempio di “entanglement” (cioè connessione) quantistico in cui si crea una connessione istantanea tra due particelle lontane quanto si vuole ed è alla base degli studi sul teletrasporto quantistico. L’entanglement è stato dimostrato definitivamente dal fisico Alain Aspect (1947) nel 1982, verificando così la disuguaglianza di Bell e, in pratica, dimostrando la validità intrinseca degli aspetti non locali della m.q. Successivamente, nel 1997, Nicolas Gisin, un fisico dell’Università di Ginevra, ha dimostrato sperimentalmente usando fotoni in fibre ottiche che l’entanglement quantistico è reale su distanze di 10.9 Km e che il segnale tra le particelle “viaggia” almeno a 10 milioni di volte la velocità della luce. Tuttavia, tale velocità (che viola la relatività) non può, come già detto,  essere utilizzata per trasferire informazioni (“no  - communication theorem”). dal punto di vista pratico l’entanglement quantistico è utilizzato con successo nella criptografia quantistica.

Per quanto riguarda invece il gatto di Schroedinger si tratta di un gatto chiuso ermeticamente in un contenitore che ha una fiala di veleno collegata ad un contatore che registra il decadimento (quantistico) di un atomo. Se il decadimento avviene allora il gatto muore se non avviene è vivo. Tuttavia, finché non lo si osserva, il gatto si trova in una sovrapposizione quantistica di stati in cui è contemporaneamente vivo e morto. Questo esempio, molto famoso, in realtà non è proprio corretto in quanto, come ha fatto osservare il fisico statunitense Murray Gell – Man (1929), il gatto non è uno sistema chiuso e quindi interagisce con l’esterno respirando e scambiando calore ed altro e quindi non è un vero sistema quantistico come l’elettrone.

L’interpretazione a molti mondi di Hugh Everett o MWI (Many Worlds Interpretation)
Per evitare situazioni imbarazzanti, come nel caso del gatto di Schroedinger, sono stati fatti tentativi di interpretazioni della m.q. alternative a quella ortodossa di Copenaghen. Una delle più esotiche e spettacolari e senza dubbio quella prodotta nel 1957 dal fisico statunitense Hugh Everett III (1930 -1982), detta a “molti mondi”. Infatti, nella interpretazione di Bohr, l’osservatore ha un ruolo privilegiato. E’ lui che provoca il collasso della f.d.o., cioè il fatto che lo stato quantico “scelga” tra le diverse alternative di cui è composto. Per evitare questo, Everett ha pensato che ogni qual volta che si esegue una misurazione quantistica, il sistema in esame si divide in tutte le alternative possibili e ogni copia continua a vivere nel mondo sdoppiato. Per tornar al famoso esempio, quando si osserva il gatto di Schroedinger esso si divide in due: in un mondo è vivo e nell’altro non lo è più. Chiaramente, questo modello, è quanto mai dispendioso in termini di risorse, ma evita fenomeni ambigui come quello del gatto quantico. Da notare che l’interpretazione  propriamente quantistica della MWI fa parte di una più generale categoria di “universi paralleli” (stringhe, superstringhe, brane e  “bolle”) che, soprattutto in cosmologia, è divenuta negli ultimi anni rilevante. Un curioso esperimento mentale proposto inizialmente dallo scienziato austriaco Hans Moravac (1948) nel 1987 e indipendentemente da Bruno Marchel  nel 1988 e poi dal cosmologo svedeseMax Tegmark (1967) nel  1998 con il nome di “suicidio quantico” prevede una sorta di “immortalità quantistica” (QTI = Quantum Theory of Immortality) se l’interpretazione MWI è corretta. Nell’esperimento c’è un evento esiziale per lo sperimentatore (e cioè siamo nei panni del famoso gatto); ad esempio, c’è una “pistola quantica” che uccide con probabilità 0.5 a colpo. Se è vera la MWI ad ogni colpo la scena si sdoppia e uno sperimentatore sopravvive alla pistola quantica con probabilità 0.5. e’ chiaro che si sparano N colpi la probabilità di sopravvivere sarà  ½^N cioè veramente molto “bassa”. Dal punto di vista MWI invece una copia sopravvivrà sempre anche se il numero di copie vive sarà ½^N. In effetti, lo sperimentatore non solo avrà raggiunto l’immortalità ma saprà anche (purtroppo lui solo) che l’interpretazione WMI della m.q. è corretta e tutte le altre sono sbagliate.

Interpretazione di Ghirardi, Rimini, Weber (GRW)
In questa interpretazione deterministica e priva di variabili nascoste, il collasso della f.d.o.  è “oggettivo” e non necessita della coscienza di un osservatore per avvenire. Il collasso avviene dunque spontaneamente quando vengono superate alcune “soglie critiche” di natura fisica (localizzazione spontanea).

Interpretazione di Wigner
Nella interpretazione del fisico ungherese Paul Wigner (1902 -1995), nobel nel  del 1963, della m.q. la “coscienza” , gioca un ruolo chiave. E’ infatti proprio la coscienza a provocare il collasso della f.d.o. Questo è esemplificato in una modifica dell’esperimento del gatto di Schroedinger, chiamato esperimento dell’”amico di Wigner”. tale esperienza prevede che insieme allo  sfortunato gatto sia presente nella stanza un essere umano (dotato di coscienza) che, in un certo senso, viene contagiato quantisticamente dalla indeterminazione dello stato del gatto e quindi si crea un nuovo stato, più complesso, fatto dalla sovrapposizione di “gatto vivo & amico felice” + “gatto morto & amico triste”.
Naturalmente questo apre grandi problemi di tipo sostanzialmente filosofico sul significato della coscienza (o meglio dell’autocoscienza)

L’interpretazione di Bohm
Per ovviare alla intrinseca acasualità della m.q. il fisico statunitense David  Bohm (1917 - 1992) sviluppò un modello della m.q. in cui vi erano delle “variabili nascoste”, in questo caso il cosiddetto “potenziale quantico” che davano ragione di tutta la imprevedibilità della teoria. In questa ottica però si perde la località ed i fenomeni di comunicazione immediata a distanza (e relativi problemi relativistici) divengono preminenti. Questa interpretazione si basa sulla teoria della cosiddette onde pilota del fisico francese Louis de Broglie (1892 -1997), nobel nel 1929. L’ottica di Bohm è quella di un universo in cui tutto è collegato con tutto in un’ottica sostanzialmente olistica.

Bibliografia
B. D’Espagnat, “I fondamenti concettuali della meccanica quantistica”, Bibliopolis, 1980
P. A. M. Dirac, “I principi della meccanica quantistica”, Boringhieri, 1978
W. Heisemberg, “I princìpi fisici della teoria dei quanti”, Boringhieri, 1979
J. Von Neumann, “Mathematical Foundation of Quantum Mechanics”, Princeton Univ. press, 1955
E. Segrè, “Personaggi e scoperte nella fisica contemporanea”, Mondadori, 1976

L’articolo pubblicato su Physical Review, 47, 1935 aveva il titolo “Can Quantum-Mechanical Description of Physical Reality be Considered Complete?”

Crionica

fcri Il sogno di poter vivere eternamente ha sempre affascinato l’umanità fin dai suoi primordi. I miti, le religioni, i romanzi, i film, spesso hanno trattato di questo tema relegandolo, per lo più, nei regni a volte sulfurei a volte algidi della fantascienza sia cinematografica che letteraria.
Tuttavia, il 12 gennaio 1967, a Los Angeles, in California, vi fu il primo caso di un essere umano che venne ibernato in azoto liquido subito dopo la cessazione delle sue funzioni vitali e furono immesse nel suo corpo sostanze proteggenti, in attesa che la tecnologia del futuro potesse un giorno risvegliarlo.
Dunque l’antico sogno dell’umanità è avverato dai progressi scientifici e tecnologici del XXI 
Da allora i “pazienti” ibernati si sono moltiplicati in tutto il mondo ma soprattutto negli Stati Uniti ma allo stato dell’arte della tecnologia il punto più delicato sarà il “risveglio” per due ordini di motivi: il primo è, naturalmente, che non abbiamo ancora la cura per tutte le malattie e poi non sappiamo trattare bene i tessuti “scongelati” che potrebbero subire danni irreparabili nell’operazione. Infatti sono stati eseguiti recentemente esperimenti con cani ibernati ma poi il risveglio ha presentato problematiche neurologiche.
In ogni caso la ricerca va avanti  e la curiosità ci spinge ad indagare il fenomeno in modo più approfondito.
In realtà, il clamoroso evento del 1967 era stato preparato da un humus culturale nato, oltre che nei romanzi di fantascienza, anche da un libro di Robert W. Ettinger dall’eloquente titolo “La prospettiva dell’immortalità” (In Italia, “Ibernazione nuova era”) che ebbe anche un seguito pratico con la Fondazione del Cryonics Institute (Michigan, USA). Tuttavia l’istituto con il più alto numero di iscritti è l’Alcor (Arizona, USA). Da poco esiste anche la CryorRus (Mosca, Federazione Russa) per sospensioni crioniche anche in Europa.

La tecnica che porta alla crionica prevede di intervenire al più presto possibile sulla struttura biologica da conservare. Il tempo è un fattore assolutamente determinante. Infatti, prima ha inizio il processo di raffreddamento  e più alte sono le possibilità di mantenere intatte le strutture biologiche coinvolte. E’ previsto poi che si agisca con liquidi anticongelanti per evitare danni ai tessuti. Successivamente, grazie all’azoto liquido, si porta la temperature a – 197 gradi centigradi.
Interessante notare come, dal punto di vista della prospettiva di una lunga sopravvivenza fisica, siano due le tecnologie specifiche: una quella della cosiddetta “mind uploading” e cioè del trasferimento della struttura neuronale da un supporto biologico ad un altro artificiale e poi naturalmente, al di là delle formidabili difficoltà tecniche, vi sono anche molte implicazioni in campo legale, etico e sociale che devono essere considerate.
Infatti, in praticamente tutti gli Stati del mondo vi sono leggi assai ristrettive per agire sulla conservazione di strutture biologiche dopo che abbiano cessato la loro funzione vitale. Po,vi sono problemi dovuti alla conservazione dei beni e delle proprietà del soggetto ibernato; dal punto di vista sociale poi occorre pensare a quale potrà essere il posto degli ibernati una volta, eventualmente, risvegliati. Infine, ma non ultimo, il problema etico che è sempre molto sentiti dalla popolazione.

cipio di indeterminazione di Heisemberg

Dobbiamo ora far notare come nella tecnologia della Mind uploading sia contenuto un ostacolo che pare strutturale, cioè non facilmente aggirabile e le cui conseguenza teoriche vanno meditate. Il problema si chiama Principio di Indeterminazione di Heisembreg ed è un principio base della meccanica quantistica. Tale principio, in termini eccezionalmente semplificati, afferma che è impossibile conoscere (cioè misurare) con ogni precisione il valore di certe variabili fisiche come, ad esempio, la quantità di moto (proporzionale alla velocità) e la posizione oppure l’energia ed il tempo.
Questo quindi implica, in generale, che è impossibile fare copie perfette di un sistema  a livello delle dimensioni quantistiche. Corollario di questa affermazione è che quindi  non si possono fare copie perfette di un substrato neurologico. In pratica la copia fatta nella mind uploading NON sarà identica all’originale. Cosa questo significhi resta da capire. Possiamo solo dire che se il sistema è non lineare, come sembra esserlo quello che rappresenta la “mente”, una piccola variazione delle condizioni iniziali (dovuto alla non precisione della copia) implica grandi variazioni a livello del risultato finale.

Problemi filosofici e legali

La realizzazione di una M.u. completa e funzionante porrà sicuramente problemi molto complessi nei campi della filosofia e della legge.
Infatti, la M.u. produrrà una nuova personalità oppure si tratterà di personalità distinte?
La “coscienza” sarà condivisa oppure separata? Che diritti e doveri avranno le copie? Quante se ne potranno fare? Vivranno in una realtà virtuale?
Per quanto riguarda il problema della coscienza sembrerebbe che, nell’ipotesi di copia l’originale e la copia possano essere considerate due entità diverse, mentre nel caso di una sostituzione graduale e progressiva la coscienza si mantiene necessariamente unica.
Come si vede i quesiti sono molti, complessi ed anche interconnessi. Ma su di essi, ancor prima che sulla tecnologia per realizzarla M.u., si può già ragionare da subito.

Conclusione

La tecnologia della mind uploading ha lasciato le pagine dei romanzi e dei film di fantascienza per essere indagata nei laboratori scientifici. Questo è un primo passo significativo a cui dovrà seguire il completamento tecnologico e la fattibilità sperimentale. Questa tecnologia apre le porte alla possibilità che la coscienza sia, in qualche modo, conservata e possa “vivere” al di là del naturale substrato biologico. Una volta “uploadata” la coscienza potrà essere inserita in Robot oppure essere inserite in simulazioni di realtà virtuale, come, ad esempio, second life. Naturalmente, come si dice, un grande potere comporta una grande responsabilità ed in questa ottica occorrerà che in parallelo alla tecnologia si sviluppi, come del resto avviene in tutte le aree critiche dello sviluppo, una “etica” che vigili sulla situazione e che inquadri in una solida matrice di regole la possibilità di utilizzare tale tecnica sugli esseri umani.

Web
http://minduploading.org/
http://www.ibiblio.org/jstrout/uploading/
http://www.popsci.com/category/tags/mind-uploading BBC - Mind uploading and the Singularity (video)
Libri
K. Eric Drexler, “Engines of creations”, Anchor  Books, New York 1986
Gerald M. Edelman, “Il presente ricordato”, Rizzoli, Milano 1991 
William Irwin (a cura di) “Pillole rosse – Matrix e la sua filosofia” Bompiani, Milano 2006Ray 
Kurzweil “La singolarità è vicina”, Apogeo,  Milano 2008 pagg. 191 -196
Ray Kurzweil “The age of spiritual machines”, Panguin Putnam, Usa 2000
Hans Moravec, Mind Children: the future of robot and human intelligence, Harvard University Press, Cambridge, Massachusetts,1988
Film
“Nirvana”, Italia 1997, Gabriele Salvatores
“eXistenZ”, Canada 1999, David Cronenberg
“Il tredicesimo piano”, Usa - Germania 1999, Josef Rusnak
“Matrix”, Usa – Australia 1999, fratelli Wachowsky
“Matrix reloaded”, Usa 2003, fratelli Wachowsky
“Matrix Revolutions”, Usa 2003 Wachowsky
“Johhny Mnemonic”, Usa  1995, Robert Longo
Racconti
“Neuromante”, William Gibson, Editore Nord 2004

Mind Uploading

mind uploadingL’idea di una sopravvivenza di una “essenza vitale” alla morte del corpo fisico è sempre stata considerata una possibilità fin dalla comparsa dell’autocoscienza equindi della consapevolezza del dover porre termine, prima o poi, alla propria esistenza.
Questo ci è noto, ad esempio, dalle antichissime incisioni rupestri (intorno al 50.000 a.C.) trovate nelle grotte abitate dai nostro progenitori migliaia di anni fa, in cui si fa esplicito riferimento ad un’ “anima” che persiste alla morte del corpo fisico.
Tale aspirazione tuttavia, proprio in virtù dell’autocoscienza della nostra specie, è propria, a quanto ci risulta,  solo dell’umanità.
In questa ottica vanno quindi considerati i miti, le leggende e poi i le credenze religiose relative al sopravvivere di un “quid” alla fine fisica. I miti egizi  e greci, con le loro potenti e simboliche istanze di rinascita, ce lo stanno a ricordare, ma poi anche la maggioranza delle religioni prospetta una vita dopo l’esistenza fisica (forse con l’unica ma importante eccezione del buddismo, per cui il problema è molto sfumato).
Ma ora, nel XXI secolo, un secolo che dovrebbe vedere l’esponenziale aumento dello sviluppo delle conoscenze scientifiche e tecnologiche, forse possiamo cominciare a parlare in termini positivi e verificabili, quindi scientifici, di ipotesi di sopravvivenza tecnologica al corpo fisico.
In effetti, fin dagli anni ’60 dello scorso secolo, sono iniziati tentativi non velleitari di utilizzare tecniche di criogenia o ibernazione di strutture biologiche al fine di conservarle per lungo tempo in uno stato di sospensione. La sfide della crionica è affascinante ma ancora piena di ostacoli tecnici e burocratici anche se sono stati fati, indubbiamente, notevoli passi in avanti.
Nel frattempo, grazie anche allo sviluppo per certi versi tumultuoso degli elaboratori elettronici sempre più potenti e sempre a minore costo, si è presentata anche un’altra possibilità: parliamo della cosiddetta “Mind uploading” (anche M.u.)  o WBE (“Whole Brain emulation”, emulazione globale del cervello) che consiste, in parole povere, nella trasposizione esatta e fedele delle strutture cerebrali da una struttura  biologica e naturale, in una, ad esempio, al silicio, come la memoria di un computer, e quindi artificiale. Diciamo subito che attualmente (2008) non esiste ancora la possibilità tecnologica di una mind uploading ma ciò non impedisce di parlarne e quindi di preparare il terreno, se così possiamo dire, per sviluppi futuri non più relegati solo nel mondo della fantascienza.
Si tratta, in pratica, di “copiare” neurone per neurone (circa 100 miliardi) e sinapsi per sinapsi un intero encefalo.
Una volta “riacceso” la nuova mente (“prodotto” del cervello) dovrebbe funzionare esattamente come l’originale mantenendo invariato il “senso del Sé” e l’autocoscienza.
Una volta “salvata” la struttura mentale ci si può poi sbizzarrire a immaginare una nuova esistenza, magari in “second life” o in una struttura creata ad hoc, magari riproducendo l’ambiente di provenienza.
Si noti tuttavia che il tema della possibilità della mind uploading si basa sull’asserto di una struttura puramente meccanicistica della mente e della coscienza escludendo quindi subito qualsiasi teoria di tipo vitalistico. In pratica, si assume vera l’affermazione che una quantità critica di neuroni e sinapsi opportunatamente collegati possano generare il fenomeno della coscienza (una trasformazione di “quantità” in “qualità”).
Il nuovo essere potrebbe essere chiamato un “infomorfo” o “Cyborg” e naturalmente si porrebbero problemi di tipo etico e legale sullo stato di questo “individuo”.

Le tecnologie

Le tecniche per eseguire la M.u. si possono catalogare, ad esempio, in tecniche distruttive e tecniche non distruttive dell’encefalo. Naturalmente possono essere utilizzate anche altri tipi di cataloghizzazione. Un’altra importante distinzione, infatti, può essere quella tra tecniche di semplice copia versus tecniche di sostituzione progressiva e graduale di neuroni e sinapsi.
Tecniche distruttive
Questo tipo di tecniche, come detto, distrugge il tessuto cerebrale e non permette errori (essendo distrutto l’originale!). Tra di esse, le più interessanti sono:
1)Procedura microtomica
Consiste nell’” affettare” strisce di materia cerebrale, dell’ordine di 10 nanometri.
tri, per poi scannerizzarle con l’aiuto di un potente microscopio elettronico. Si può utilizzare paraffina per solidificare la materia cerebrale o congelarla tramite azoto liquido. E’ chiaro che la risoluzione dello strumento deve essere tale da cogliere i dettagli di neuroni e sinapsi, mappando la distribuzione dei canali ionici sulle membrane e sulla densità di sostanze chimiche.
2) Nanosostituzione
L’idea base è quella di iniettare nano robot nel cervello che vanno a porsi in vicinanza di neuroni e sinapsi, monitorandone l’attività. Quando hanno acquisito tutti i dati i nano robot uccidono le cellule e vi si sostituiscono
Tecniche non distruttive
In questo caso non si distrugge il tessuto ma si acquisiscono le più dettagliate informazioni possibili sulla struttura cerebrale.
1)Olografia a raggi x o gamma
Si scatta una “fotografia” iperdettagliata della struttura cerebrale da scannerizzare con raggi x e gamma (che però potrebbero ledere il tessuto avendo energie dell’ordine di 100 volte quelle tipiche del bersaglio).
2) Tecniche di MRI, Magnetic Resonance Imaging ad altissima definizione
3) Interferometria biofotonica
Utilizza l’interferenza dei fotoni per avere dettagliate informazioni.
4) Nanosonde mappanti
Simile alla nano sostituzione già descritta, ma non distruttiva; produce una copia dell’originale.

Lo stato dell’arte

Il progetto più avanzato di M.u. è quello della IBM e della Swiss Federal Institute of Technology di Losanna che hanno annunciato bel 2005 di voler procedere ad una completa simulazione, tramire rete neuronale, del cervello umano con il Progetto “Blue Brain” (http://bluebrain.epfl.ch/) basato sul supercomputer IBM “Blue Gene”. Gli studi iniziali sono incominciati sulla simulazione, a livello molecolare (che permette di apprezzare l’espressione genetica), di una colonna neocorticale di ratto (molto simile a quella umana), conclusasi nel dicembre 2006, per espandersi poi all’intera neocorteccia e poi all’intero cervello.
La colonna neocorticale di ratto è lunga 2 mm e larga 0.5 mm e contiene circa 10.000 neuroni e 100 milioni di sinapsi; quella umana contiene circa 60.000 neuroni ed è simile per dimensioni.

Un problema strutturale: il principio di indeterminazione di Heisemberg

Dobbiamo ora far notare come nella tecnologia della Mind uploading sia contenuto un ostacolo che pare strutturale, cioè non facilmente aggirabile e le cui conseguenza teoriche vanno meditate. Il problema si chiama Principio di Indeterminazione di Heisembreg ed è un principio base della meccanica quantistica. Tale principio, in termini eccezionalmente semplificati, afferma che è impossibile conoscere (cioè misurare) con ogni precisione il valore di certe variabili fisiche come, ad esempio, la quantità di moto (proporzionale alla velocità) e la posizione oppure l’energia ed il tempo.
Questo quindi implica, in generale, che è impossibile fare copie perfette di un sistema  a livello delle dimensioni quantistiche. Corollario di questa affermazione è che quindi  non si possono fare copie perfette di un substrato neurologico. In pratica la copia fatta nella mind uploading NON sarà identica all’originale. Cosa questo significhi resta da capire. Possiamo solo dire che se il sistema è non lineare, come sembra esserlo quello che rappresenta la “mente”, una piccola variazione delle condizioni iniziali (dovuto alla non precisione della copia) implica grandi variazioni a livello del risultato finale.

Problemi filosofici e legali

La realizzazione di una M.u. completa e funzionante porrà sicuramente problemi molto complessi nei campi della filosofia e della legge.
Infatti, la M.u. produrrà una nuova personalità oppure si tratterà di personalità distinte?
La “coscienza” sarà condivisa oppure separata? Che diritti e doveri avranno le copie? Quante se ne potranno fare? Vivranno in una realtà virtuale?
Per quanto riguarda il problema della coscienza sembrerebbe che, nell’ipotesi di copia l’originale e la copia possano essere considerate due entità diverse, mentre nel caso di una sostituzione graduale e progressiva la coscienza si mantiene necessariamente unica.
Come si vede i quesiti sono molti, complessi ed anche interconnessi. Ma su di essi, ancor prima che sulla tecnologia per realizzarla M.u., si può già ragionare da subito.

Conclusione

La tecnologia della mind uploading ha lasciato le pagine dei romanzi e dei film di fantascienza per essere indagata nei laboratori scientifici. Questo è un primo passo significativo a cui dovrà seguire il completamento tecnologico e la fattibilità sperimentale. Questa tecnologia apre le porte alla possibilità che la coscienza sia, in qualche modo, conservata e possa “vivere” al di là del naturale substrato biologico. Una volta “uploadata” la coscienza potrà essere inserita in Robot oppure essere inserite in simulazioni di realtà virtuale, come, ad esempio, second life. Naturalmente, come si dice, un grande potere comporta una grande responsabilità ed in questa ottica occorrerà che in parallelo alla tecnologia si sviluppi, come del resto avviene in tutte le aree critiche dello sviluppo, una “etica” che vigili sulla situazione e che inquadri in una solida matrice di regole la possibilità di utilizzare tale tecnica sugli esseri umani.

Web
http://minduploading.org/
http://www.ibiblio.org/jstrout/uploading/
http://www.popsci.com/category/tags/mind-uploading BBC - Mind uploading and the Singularity (video)
Libri
K. Eric Drexler, “Engines of creations”, Anchor  Books, New York 1986
Gerald M. Edelman, “Il presente ricordato”, Rizzoli, Milano 1991 
William Irwin (a cura di) “Pillole rosse – Matrix e la sua filosofia” Bompiani, Milano 2006Ray 
Kurzweil “La singolarità è vicina”, Apogeo,  Milano 2008 pagg. 191 -196
Ray Kurzweil “The age of spiritual machines”, Panguin Putnam, Usa 2000
Hans Moravec, Mind Children: the future of robot and human intelligence, Harvard University Press, Cambridge, Massachusetts,1988

Film
“Nirvana”, Italia 1997, Gabriele Salvatores
“eXistenZ”, Canada 1999, David Cronenberg
“Il tredicesimo piano”, Usa - Germania 1999, Josef Rusnak
“Matrix”, Usa – Australia 1999, fratelli Wachowsky
“Matrix reloaded”, Usa 2003, fratelli Wachowsky
“Matrix Revolutions”, Usa 2003 Wachowsky
“Johhny Mnemonic”, Usa  1995, Robert Longo

Racconti
“Neuromante”, William Gibson, Editore Nord 2004

La "nuova era" della rete

Internet nasce, negli anni ’60 dello scorso secolo, nell’ambito del Programma della Difesa Statunitense denominato ARPA (Advanced Research Projects Agency) e che aveva come obiettivo quello di far sopravvivere ad un attacco atomico la rete telematica militare degli USA, durante il periodo della guerra fredda.Contemporaneamente però, le Università americane venivano collegate da reti telematiche primordiali o meglio, venivano collegati gli Host cioè i computer centrali dei Campus universitari e così  i ricercatori si potevano scambiare i dati e le informazioni.
Tuttavia Internet allora è poco più di un “gioco” per le teste d’uovo del Pentagono e delle Università; l’interfaccia infatti è solo testuale, non esistono “browser” per navigare i dati e le email sono ai loro inizi.
Occorre quindi giungere agli inizi degli anni ‘90 quando un fisico  del CERN, struttura europea deputata agli studi di fisica nucleare, Tim Berners – Lee, di Ginevra ha un’idea geniale: perché non condividere i dati, le informazioni, le immagini sotto forma grafica e rendere così disponibili a tutti i ricercatori i dati sugli ultimi esperimenti scientifici? Il 6 agosto 1991 il primo sito web è pubblicato.
A questo punto nasce il World Wide Web (WWW) la “grande ragnatela mondiale” che catturerà miliardi di persone in un sofisticato gioco interattivo.
Internet si sviluppa rapidamente durante tutti gli anni ’90 per entrare già grande nel XXI secolo e alla fine raggiungere le incredibili dimensioni mondiali attuali.
Questa la storia.
Ma noi ora vogliamo fare qualche considerazione ulteriore.
Internet, di fatto, ha cambiato il volto della società al pari dell’invenzione della stampa; la Rete ha infatti permesso a miliardi di persone in qualsiasi angolo del mondo di condividere dapprima i propri dati e poi, oggi, anche le loro esperienze tramite i blog e YouTube e le loro conoscenze tramite Wikipedia, la prima enciclopedia on line mondiale.
Internet, sembra essere il prototipo, anche abbastanza avanzato, di una sorta di “superorganismo” cibernetico che potrebbe anche essere interpretato come un nuovo livello evolutivo della civiltà umana.
Nel corso della Storia l’idea stessa di sviluppo ha subito e subisce attacchi da parte di chi considera positivo lo stato del “buon selvaggio”, per dirla alla Rosseau senza peraltro pensare che il progresso, portato in primis dalla tecnologia, ha migliorato enormemente la qualità della vita degli essere umani (ma anche animali). E’ chiaro tuttavia che, il concetto stesso di progresso deve essere costantemente coniugato con quello di “sicurezza dello sviluppo” al fine di prevenire l’utilizzo dannoso della tecnologia o le conseguenza negative dello sviluppo sull’ambiente.
Tuttavia pensiamo che tali aspetti possano essere affrontati e risolti, come sempre è successo nelle varie fasi dello sviluppo della civiltà umana, da quando un ominide, nella notte dei tempi, milioni di anni fa, non vide nella folgore scoccata nei cieli solo il monito di un dio geloso, ma anche l’opportunità di scaldarsi nelle notti gelide tramite il fuoco.
Ma torniamo ad Internet e alla sua rappresentazione di una sorta di sistema nervoso embrionale di una sorta di “organismo” cibernetico complesso che l’evoluzione ci stà presentando.
L’idea che la tecnologia possa dare luogo ad una Cyber struttura capace di intelligenza artificiale complessa e raffinata e quindi, in un tempo lontano ma determinato, di coscienza, è stata già presentata e gode di buona letteratura e saggistica.
Il futurologo americano Ray Kurzweil ne ha addirittura tratteggiato l’avvento nella sua nozione di “singolarità tecnologica” che, entro qualche decina d’anni, potrebbe portare ad una evoluzione rapidissima e sostanzialmente esponenziali delle capacità mondiali di calcolo distribuito ponendo la base, appunto, della formazione di questo super agglomerato tecnologico con ambizioni coscienziali.
Già il gesuita scienziato (era un antropologo) Pierre Teilhard de Chardin immaginò, in chiave religiosa, l’avvento di un essere cosmico (che lui identificava con il “Cristo cosmico” o “Punto Omega”) in una struttura puramente mentale chiamata noosfera o “sfera del pensiero”
Ora, allo scadere del primo decennio del XXI secolo, l’umanità guarda incuriosita (ed a volte un po’ preoccupata) all’affacciarsi cosmico di questa nuova possibilità evolutiva rappresentata da una evoluzione tecnologica capace, nel futuro, di integrare chip al silicio e neuroni al carbonio in un nuovo ed esplosivo coktail.
La nuova fase di Internet e del Web sembra proprio corroborare queste indicazioni.
Lo sviluppo accelerato di strumenti come YouTube, ad esempio, pongono le basi per una futura costruzione ancora più raffinata e complessa. Già adesso tutto quello che avviene nel mondo, può potenzialmente, esser condiviso in tempo reale, con tutti gli altri abitanti del globo. Basta possedere un cellulare dotato di telecamera che si diventa testimoni globali di conoscenza potendo immettere nella Rete, ripetiamo in tempo reale, gli eventi di cui si è stati testimoni. Una rivoluzione senza pari nel campo del giornalismo ma anche delle indagini poliziesche, della conoscenza e, più in generale, dell’antropologia.
Avviene un fenomeno strano in un remoto deserto australiano? Ecco che YouTube permette di vederlo in Italia in tempo reale. 
A questa possibilità poi si somma la possibilità di una grande conoscenza iperdistribuita grazie a strumenti come Wikipedia che permettono ad ognuno di apportare i propri saperi (fatta la tara alle inevitabili imprecisioni).
In tale ottica, in questi giorni. È uscito in Europa l’Iphone della Apple: un nuovo cellulare che in realtà è un computer portatile ad eccesso costante e diretto alla Rete.


YouTube nasce nel 2005 ad opera di C. Hurley e possiede circa 150 milioni di video che aumentano al ritmo di circa 65.000 nuovi video al giorno. Nel 2006 è stata comprata da Google per 1.65 miliardi di dollari.

Wikipedia, enciclopedia libera alla cui stesura tutti possono partecipare, è stata fondata da Jimbo Wales e Larry Sanger nel 2001. Conta (2008) circa 34 milioni di pagine.

La prima presentazione dell’IPhone, quella in USA, è stata fatta nel gennaio 2007 da Steve Jobs il fondatore della Apple. L’IPhone contiene tre funzioni che prima erano separate: l’IPod (per ascoltare musica scaricata da Internet), il cellulare ed il palmare (computer che si tiene in mano).

YouTube nasce nel 2005 ad opera di C. Hurley e possiede circa 150 milioni di video che aumentano al ritmo di circa 65.000 nuovi video al giorno. Nel 2006 è stata comprata da Google per 1.65 miliardi di dollari.
Wikipedia, enciclopedia libera alla cui stesura tutti possono partecipare, è stata fondata da Jimbo Wales e Larry Sanger nel 2001. Conta (2008) circa 34 milioni di pagine.
La prima presentazione dell’IPhone, quella in USA, è stata fatta nel gennaio 2007 da Steve Jobs il fondatore della Apple. L’IPhone contiene tre funzioni che prima erano separate: l’IPod (per ascoltare musica scaricata da Internet), il cellulare ed il palmare (computer che si tiene in mano).

Bene, senza voler fare pubblicità a marchi commerciali, possiamo dire che l’unione di YOUTube, Wikipedia e I-Phone rappresentano un nuovo sentire, un nuovo modo di interpretare la vita ed il mondo: è quello della “generazione Cyber” o della “generazione –I” per cui la vita è conoscenza istantanea e diffusa, oltre che immediatamente condivisa
La Rete diviene dunque anche strumento politico e di democrazia diretta…
Sulla Rete non si può mentire a lungo e comunque non a molti e non per molto tempo…sarà per questo che il Regno Unito ha messo Internet come lo strumento più potenzialmente destabilizzante la loro società fra una decina d’anni?

Relatività ristretta, generale e meccanica quantistica

Introduzione

Il XX° secolo è stato un secolo particolare; infatti, già il XIX° aveva, tramite il positivismo e l’empirismo un nuovo modo di “vedere” la natura; un modo che si rifaceva direttamente all’osservazione critica dei fenomeni, nel solco anche della tradizione galileiana e newtoniana e sulla scia dell’empirismo inglese di Francesco Bacone e della filosofia razionalista di Cartesio.
In verità, sul finire del XIX° secolo dopo i fasti illuministi culminati nella sistematizzazione della meccanica razionale, qualche scricchiolio l’edificio della fisica classica l’aveva pur mostrato. Ed in particolare, la nuova teoria atomica della materia, mostrava già alcune stranezze come per il caso della cosiddetta “catastrofe ultravioletta” che dava risultati infiniti per il  caso del “corpo nero”. L’apparire di “infiniti” in una teoria fisica è sempre segnale del fatto che la teoria mostra “singolarità”, o funzionamenti limitati che nascondono sovente grandi cambiamenti di visione;infatti fu proprio lo studio dello spettro di emissione del  “corpo nero” che portò lo scienziato tedesco Max Planck, nel dicembre del 1900 a presentare un lavoro che di fatto fonda la meccanica dei quanti (in seguito m.q.).
La m.q. prevede che a livello atomico la materia si comporti in quantità “discrete” (e cioè non “continue”) ed, in particolare, che l’energia possa essere scambiata solo per “pacchetti” interi, multipli di una quantità fondamentale.
Un risultato strano ed inatteso che però apriva le porte ad una concezione completamente diversa della mondo fisico. Il principio di indeterminazione di Heisemberg avrebbe poi mostrato come non sia possibile conoscere tutto della natura, ma solo una parte. L’”osservato” (sistema fisico) e l’”osservatore” diventano entrambi parti di un fenomeno concettualmente indissolubile dove il secondo influenza il primo.
Ma il mondo atomico non era l’unico che mostrava irregolarità. Nel 1905 un fisico tedesco emigrato in Svizzera, Albert Einstein, indagando le proprietà di invarianza delle equazioni di Maxwell dell’elettromagnetismo, giunse a  quella che poi sarebbe divenuta universalmente nota come Teoria della relatività ristretta o speciale (in segui t.r.r.).
In pratica, dall’assunto sperimentale dell’invarianza di tutte le leggi fisiche per sistemi inerziali (cioè in moto rettilineo uniforme) e dal principio della costanza della velocità della luce nel vuoto, Einstein deduceva conseguenze inaspettate. Il tempo e lo spazio sono “relativi” all’osservatore e perdono il loro carattere “assoluto” che Newton aveva dato loro ed essi si “dilatano” o si “contraggono” a seconda dell’osserevatore.
Inoltre, come regalo inaspettato, la t.r.r. diede una formula che lega la massa di un corpo in movimento alla sua velocità. Questa formula a riposo dà il valore in energia della massa di un corpo: è la famosa formula 
E=MC.divenuta nota per le sue implicazioni nucleari.
L’ultima grande scoperta del ventennio d’oro della fisica del XX secolo fu la scoperta della teoria della Relatività generale (in seguito t.r.g.) sempre ad opera di A. Einstein.
Tale teoria “geometrizza” una forza, quella di gravità e vede la sua azione in modo completamente diverso e cioè come una massa che deforma lo spazio – tempo. 
Ma se ci si fermasse a questa sarebbe una operazione brillante ed esteticamente affascinante ma nulla di più.
Invece, questo passaggio dalla fisica alla geometria, diede dei risultati del tutto nuovi ed inaspettati fondando, di fatto, una nuova teoria della gravitazione.
Anche in questo caso vi erano stati dei “segnali” che qualcosa non funzionava bene, come il caso dello spostamento dell’orbita del perielio del pianeta Mercurio che invece trova perfetta giustificazione nella t.rg..
Il ventesimo secolo fu un secolo eccezionale per le scienze fisiche. Pose inoltre le basi per una teoria relativistica gravitazionale che porterebbe ad indagare nei primissimi istanti dopo il Big bang. Purtroppo tale teoria non ha ancora una struttura stabile ma le basi sono state poste.

 

 

Meccanica quantistica

La m.q. entra in vigore a scale atomiche mentre nel mondo in cui viviamo non ha effetti individuabili.
La m.q., come detto, nasce per spiegare dei fenomeni inspiegabili alla luce delle conoscenze classiche (e cioè newtoniane), come l’emissione di corpo nero e la stabilità degli elettroni nelle loro orbite attorno al nucleo degli atomi.
Il principio base della m.q. è, come detto, il principio di indeterminazione di Heisemberg che dice che vi sono alcune grandezze fisiche non misurabili contemporaneamente, come la velocità e la quantità di moto oppure il tempo e l’energia. Questo ci dice che c’è una intrinseca impossibilità a “conoscere” esattamente la realtà fisica, almeno per alcune variabili caratteristiche del sistema.
Il principio di indeterminazione porta quindi necessariamente ad una descrizione probabilistica della m.q. in termini appunto di distribuzione di probabilità e viene meno il concetto di certezza (probabilità P = 1 ) caratteristica della meccanica classica. Questo porta ad alcuni apparenti paradossi come la doppia natura delle particelle elementari, contemporaneamente onde e corpuscoli.
In meccanica classica la descrizione di un sistema avviene mediante una equazione differenziale (semplificando) e i valori iniziali, mentre in m.q. la descrizione avviene mediante l’equazione di Schrodinger oppure la meccanica delle matrici di Heisemberg (il fisico svizzero W. Pauli dimostrò l’equivalenza delle due descrizioni).
La m.q. porta inevitabilmente a paradossi quando si considera il problema della misura.
Infatti, a causa del principio di indeterminazione, accade che un sistema fisico sia descritto da un parametro, come l’energia, che ha una distribuzione di probabilità piuttosto che la certezza classica.
Famoso è l’esempio del “gatto di Schrodinger” che risulta, se collegato ad un sistema quantistico, contemporaneamente vivo e morto e solo l’osservazione provoca il cosiddetto “collasso” della funzione d’onda che fa precipitare il sistema in uno stato ben determinanti.
La m.q. ha numerose applicazioni nel mondo della tecnica come in superconduttività, l’elettronica ed i transistor.
Aperto è invece il dibattito sulla interpretazione filosofica della m.q. con diverse “scuole” di pensiero tra cui ricordiamo la cosiddetta “scuola di Copenaghen” di Niels Bohr e al teoria a molti mondi di Hugh Everett III.
Nella prima, la funzione d’onda genera una sovrapposizione quantica di stati con differenti probabilità. Quando si osserva il sistema si fa collassare la funzione d’onda in un unico stato effettivamente osservato.
Nella interpretazione a “molti mondi” il sistema quantico si biforca in continuazione sotto l’osservazione generando universi paralleli che  contengono tante copie quante sono le possibilità quantiche di stato.
L’elettrodinamica quantistica è una teoria quantistica del campo elettromagnetico e quindi comprende sia la m.q. che la t.r.r.
Una ulteriore evoluzione in fisica subnucleare è la teoria della cromodinamica quantistica che descrive la fisica dei quark.

 

Teoria della Relatività ristretta

La t.r.r. nasce come naturale sviluppo dell’invarianza delle equazioni di Maxwell in sistemi inerziali.
Einstein non fece altro, come lui stesso, ammise che trarre le conseguenze di una situazione logica che si era dimostrata ad un certo punto inevitabile.
Il fatto sperimentale che aprì la strada alla t.r.r. fu la prova, nell’ambito delle misure sperimentali, della non esistenza di un supporto privilegiato rispetto a cui si sarebbe dovuta muovere un’onda luminosa: l’etere.
L’esperimento di Michelson - Morley dimostrerà la sua non esistenza.
Da ciò presero le mosse i lavori di Loretnz  e Fitzgerald e di Poincarè fino a giungere ad Einstein che codificò una teoria basata sull’invarianza della velocità della luce nel vuoto (principio sperimentale) e sull’uguaglianza di tutte le leggi fisiche per trasformazioni inerziali (estensione del principio di relatività di Galileo).
Einstein produsse le famose equazioni di trasformazione di Loretnz (che le scoprì prima non interpretandole correttamente).
La tdrr ha avuto importanti conferme sperimentali ad esempio nell’allungamento della vita media del mesone mu (o muone).

Teorie della Relatività generale

Tale teoria (t.r.g.), come dice il nome, è una generalizzazione di quella speciale. Ora si richiede infatti che le leggi fisiche siano invarianti rispetto a tutti i sistemi anche quelli accelerati (e quindi non inerziali).
La trg usa una matematica avanzata e sofisticata la cosiddetta analisi tensoriale che era stata inventata dai matematici italiani Levi – Civita e Ricci – Furbastro nell’ambito di ricerche riguardanti la fisica matematica.
La grande innovazione della t.r.g. è stata quella, come detto, di geometrizzare una forza, quella della gravità, per poi dedurre conseguenze sperimentali nuove.
La t.r.g. è una teoria fisica che ha avuto immediata applicazione in cosmologia in quanto ben si adatta ai temi suddetti.
Dal punto di vista matematico si tratta di risolvere un sistema di equazioni differenziali non lineari accoppiate che nel limite classico danno le equazioni di Newton.
I tentativi di estendere la t.r.g. a sistemi quantistici (gravità quantistica) sono per ora tutti falliti.

Conclusioni

La Scienza nel ventesimo secolo ha vissuto la sua più grande rivoluzione. L’apparire in un tempo di poco più di un decennio della Relatività speciale  generale più l’avvento della meccanica quantistica hanno segnato uno dei momenti più alti dell’evoluzione della conoscenza umana. 
Aperto ed estremamente interessante è il quesito se il metodo scientifico, basato sulla stretta osservazione analitica dei fenomeni, possa interpretare, la Realtà o se occorra invece un approccio nuovo, di tipo olistico, tipico dei sistemi complessi. che consideri il tutto superiore alla mera somma delle parti.
E’ stato il trionfo del metodo scientifico che si basa sull’osservazione, sulla esperienza, sull’ipotesi e sulla teoria .E’ stato il trionfo dell’umiltà della rinuncia della conoscenza a –priori o ex cattedra per giungere, tramite la paziente osservazione, ad una conoscenza meno vasta ma certa del mondo.

Recensione al libro di Ray Kurzweil "La Singolarità è vicina"

La singolarità pè vicinaRay Kurzweil (New York, 1948) è un futurologo ed inventore ed è uno dei principali propugnatori della tesi “singolatoriana” che preconizza l’avvento della Singolarità e cioè di quel momento in cui la progressiva accelerazione non lineare della tecnologia  (la “legge dei ritorni accelerati”,a sua volta accelerata, componendo quindi una crescita “doppiamente esponenziale”)  porterà al manifestarsi di un epifenomeno: la fusione tra intelligenza biologica con quella artificiale.
Questo sarà un vero e proprio salto qualitativo innescato engelianamente “oltre un certo limite la ‘quantità’ si trasforma in ‘qualità’, dal superamento di un “valore critico” di tecnologia intelligente.
Quali sono le aree interessate da questa irrefrenabile evoluzione che innescherà la singolarità? E’ presto detto: l'ingegneria genetica, la nanotecnologia e Robotica (secondo l’acronimo GNR).
Nella filosofia transumanista si parla di nano, bio, info e cogno (per tecniche cognitive), auspicandone la convergenza di queste tecnologie.
Ma torniamo al concetto di Singolarità.
Il primo a parlare di “singolarità tecnologica” nella accezione moderna è stato Vernor Vinge (Waukesha, Wisconsin,1944), scrittore e matematico, all’inizio degli anni ’80 dello scorso secolo (attualmente suhttp://www.ugcs.caltech.edu/~phoenix/vinge/vinge-sing.html in inglese ed in italiano su http://www.estropico.com/id136.htm).
La Singolarità, come già accennato, è un momento di discontinuità e di sostanziale cambio di “paradigma” culturale; la tecnologia crescerà sempre di più fin quando l’intelligenza umana basata sul carbonio si fonderà con l’intelligenza artificiale basata o su altri elementi chimici, come il silicio dei computer, o su nuove forme del carbonio, come  i nanotubi; in ogni modo, il “nuovo mondo” che emergerà dalla cosmogenesi tecnologica avrà poco a che fare con il mondo che tradizionalmente conosciamo.
Kurzweil si basa sulla sua “legge del ritorno accelerato” che garantisce una forte evoluzione non lineare della tecnologia in una certa analogia con la cosiddetta “legge di More” per quanto riguarda il raddoppio del numero dei componenti di un circuito elettronico integrato.
Naturalmente, per la specie umana è necessario, dice l’autore,affrontare in piena coscienza questa “transazione”.
Si noti che il singolaritarismo si inserisca a pieni titolo nella corrente più in generale del transumanesimo, dell’estropianesimo (www.estropico.com) e della futurizzazione.
Il filosofo Max More (Bristol, Inghilterra, 1964) diede inizio a questo movimento filosofico nel 1988 in California, USA fondando l’Extropy Institute in cui ebbe origine l’estropianesimo antesignano del transumanesimo (indicato anche con >H oppure H+).
Qualche anno prima, nel 1987, si era formato, tramite il fisico Valentin Turchin, il Principia Cibernetica Project (PCP) ancora attivo (vedi:http://pespmc1.vub.ac.be) che anticipava questi temi.
Ma torniamo al lavoro di Kurzweil, dopo averlo inquadrato nella giusta cornice di riferimento.
Il libro ha 9 capitoli,un prologo, un epilogo ed una appendice, più dettagliate Note finali e presenta indubbiamente una grande messe di informazioni strutturate in linee di esposizione e dialogo tra “enti” pre e post singolarità.
Il primo capitolo, parla delle “6 epoche” che sono individuabili nello sviluppo della società: nell’ordine quella della fisica e chimica, della biologia e del DNA, dei “cervelli”, della tecnologia, della “fusione di tecnologia ed intelligenza umana” ed infine, l’affascinante ultimo capitolo sull’ “universo che si sveglia”.
Il secondo capitolo tratta di “Una teoria dell’evoluzione tecnologica” dove viene spiegata la legge dei ritorni accelerati. Il terzo capitolo si intitola “Raggiungere la capacità computazionale del cervello umano”, il quarto “Il software dell’intelligenza umana”, il quinto della GNR, e cioè Genetica, nanotecnologia e Robotica,  il sesto è sull’impatto della rivoluzione GNR, il settimo ha un suggestivo titolo “Ich bin ein Singularitarian”, l’ottavo torna sulla GNR come “GNR: l’intreccio profondo di promessa e pericolo” (significativa l’osservazione sull’azione democratizzante del web nel caso del colpo di Stato sventato, anche grazie ai nuovi media, da Boris Yeltsin e diretto contro Mikhail Gorbaciov, il nono sono “risposte ai critici” ed infine, nell’ultimo contributo, vi è l’Epilogo di tipo filosofico su cosa sia la Singolarità” e del rapporto tra essere umano e natura (con supremazia del primo) e delle risorse sul web.
Da notare che, nell’appendice, c’è una trattazione matematica della famosa “legge dei ritorni accelerati”.
Il libro ha tutti i numeri per diventare una “guida”  transumanista; affronta, infatti, tutti i temi tipici dell’argomento focalizzandosi sulla Singolarità.
Particolarmente interessante è la tecnologia della “mind uploading” che permetterebbe un “trasferimento” della stessa “coscienza” da un supporto biologico ad uno artificiale.
Una piccola nota riguarda l’eccessiva piccolezza dei caratteri che, soprattutto nei grafici, rende, a volte, difficile la lettura.
Questo ultimo lavoro di Kurweil è sicuramente interessante e, soprattutto, nell’asfittico mercato editoriale italiano della tecnologia avanzata e della futurizzazione, un riferimento importante per quanti vogliano avere un quadro teorico e pratico di riferimento su “dove si va  a  parare” per quanto riguarda questi temi così affascinanti.
Inoltre, di fatto, è il primo libro inquadrabile nella filosofia “transumansita” italiana di un autore molto noto all’estero e che quindi speriamo sia propedeutico ad altri testi di questo genere.

Giuseppe Vatinno

Bibliografia consigliata

Dello stesso autore:

“The Age of intelligent machines” MIT Press, USA, 1992
“The Age of spiritual machines” Penguin Books, USA, 1999
Intervista a Max more sulla singolarità: http://www.estropico.com/id146.htm

Siti Web:
www.singularity.com
www.KurzweilAI.net
www.carlopelanda.com
www.estropico.com

Nostra Signora del Cosmo

IMGVoglio iniziare questo articolo con una domanda di filosofia sistemica e che ha per oggetto il ruolo del "metodo" come definito da René Descartes e Cartesio e da Francesco Bacone. La scienza ha bisogno assoluto di un metodo scientifico che le permetta di scoprire il funzionamento della natura.
La domanda allora è: si può innalzare il metodo a supremo strumento conoscitivo che dia informazioni addirittura sulla realtà stessa?
O più esplicitamente: il metodo in sé può costituire conoscenza pura?
La domanda è complessa anche perché la stessa scienza moderna, diciamo da Galileo in avanti, a posto come obiettivo del conoscere il "come" a discapito del filosofico "perché?". In pratica galileo, in piena umiltà intellettuale, comincia semplicemente a studiare "come" avvengono i fenomeni, ad esempio oscillatori, disinteressandosi completamente della "cause finali" che riguarderebbero il campo della conoscenza dei "perché" (in questo caso, almeno ad un certo livello di approssimazione la causa agente del moto del pendolo è la gravità universale). Quello che voglio dire è che Galileo cercando solo il "come" scopre anche un "perché di primo livello". E' interessante notare come, in questo esempio, un "perché di secondo livello" è costituito poi dalla relatività generale che avrebbe formulato secoli a venire Albert Einstein. A questo punto poi, non possiamo fare a meno di chiederci se esistano "perché di terzo livello" e così via Ebbene, già un terzo livello è plausibile: si tratta della cosiddetta gravità quantistica.
Allora vi sono due ordini di problemi. Il primo è: quanti livelli di "perché" progressivi esistono? Ha senso logicamente ricercare un "perché" ultimo (o causa efficiente o causa prima?). e poi: uno studio molto sofisticato ed approfondito del "come" può portare ad una buona conoscenza dei "perché"?
La prima domanda è molto complessa: infatti, occorre definire una sorta di gerarchia funzionale dei "perché" ma si potrebbe forse immaginare un'esistenza di un "perché ultimo" definito come il "perché" che non ha bisogno di altre spiegazioni aggiuntive.
La seconda domanda è più affrontabile sul piano della realtà effettuale e la risposta è positiva: la conoscenza di un processo ci dà sempre informazioni sulla sua "essenza", cioè sulla sua "natura".
Ecco dunque che uno studio approfondito dei processi potrebbe fornirci grandi informazioni sulla "natura" di un fenomeno complesso come il cosmo nella sua interezza o il fenomeno evolutivo. Insomma, la domanda a cui si cerca una risposta è la seguente: esiste un "fine" in quello che vediamo avvicendarsi intorno a noi? Come si vede la domanda è la più impegnativa che un uomo si possa porre ed investe campi che sono( stati) appannaggio della religione ma che ora potrebbero avere una soluzione scientifica.
In effetti, nell'universo, parrebbe combattersi una titanica battaglia tra due tendenze: l'ordine ed il disordine intendendo con il primo la tendenza alla "estropia" e con il secondo la tendenza all' "entropia". Ad esempio, il " fenomeno vita" è un chiaro esempio della nascita di ordine locale a scapito di un disordine globale.
La biosfera è piena di vita: forma che nascono, si evolvono, muoiono; le più adatte sopravvivono dell'eterna danza cosmica.
E' dunque lecito chiedersi: tutta l'incredibile ricchezza di vita e, nel caso umano, di esperienza coscienziale che fine farà?
La domanda solo ad una prima analisi può sembrare puramente teoretica; in realtà si tratta di una domanda di "fisiologia cosmica" che riveste molto interesse per la nostra specie e per specie che potranno sopravvivere in un futuro remoto, un futuro dell'ordine di 10^10^76 anni, cioè 10 elevato alla dieci elevato a 76!
Cosa succederà, plausibilmente, al nostro universo?
La domanda, è bene dirlo subito, potrà avere solo una risposta di tipo prettamente probabilistico in quanto non conosciamo con certezza il futuro del cosmo. Esso, infatti, potrebbe continuare ad espandersi per sempre andando verso ad un destino di morte termica, come si usa dire oppure, viceversa, potrebbe collassare su se stesso in un enorme"big crunch" finale che sarebbe il fenomeno speculare del big bang iniziale, con tutta la materia concentrata in un punto di temperatura e densità infinità, oppure, ancora, potrebbe letteralmente rimbalzare indietro verso una nuova espansione.
In tutti questi casi potremmo chiederci, da futurologi impegnati, cosa ne sarà della nostra specie ammesso che nel frattempo non si sia autodistrutta grazie ad un conflitto nucleare o ad un attacco di virus ingegnerizzati.
Partiamo dallo scenario che, la momento, sembra essere più plausibile.
E cioè quello di una espansione progressiva del cosmo fino a raggiungere la morte termica e cioè fino a raggiungere a zero gradi assoluti in cui si annullano tutti i movimenti atomici.
Il primo a parlarne fu uno dei padri della termodinamica e cioè Rudolf Julius Emanuel Clausius (1822 – 1888) che applicò il secondo principio della termodinamica ad un sistema chiuso molto particolare, cioè all'universo stesso. Di questo argomento se ne occuparono molto anche altri cosmologi come, ad esempio, Artur Eddington (1882 – 1944)e James Jeans (1877 – 1946).
In effetti, applicando pedissequamente i fondamenti della termodinamica possiamo solo dire che l'universo evolverà inesorabilmente verso quello che è considerato lo stato è il più probabile e cioè quello a massimo contenuto entropico e cioè quello più disordinato in cui tutto è congelato nell'assenza di movimento atomico. Infatti, dopo che tutta la materia sarà stata ingoiata da miliardi di buchi neri e riemessa sotto forma di un gas di fotoni , leptoni e protoni (se non decadono) nulla più resterà. Il cosmo avrà raggiunto il suo equilibrio nell'immobilità eterna.
Si noti, a questo punto, che per l'universo l'idea intuitiva di una entropia proporzionale alla temperatura (secondo i principi della termodinamica statistica) non vale.
Infatti, se valesse, lo stato iniziale del Big Bang a temperatura infinita (insieme alla densità) dovrebbe avere una entropia infinita e quindi essere in equilibrio e non evolvere. In realtà il Big Bang è proprio l'istante iniziale (tralascio, per semplicità,, la teoria delle membrane).
In effetti, per il cosmo, occorre calcolare l'entropia totale in modo diverso da quello a cui siamo abituati. In questo caso infatti occorre tenere presente la gravità ed il suo "contenuto d'ordine" che fanno sì che il Big Bang, in realtà, sia uno stato a bassa entropia e che quindi permetta al secondo principio della termodinamica di agire in senso evolutivo.
Ma torniamo alla morte termica.
Una prospettiva desolante vero?
Tuttavia, ultimamente, i progressi della cosmologia quantistica ci aiutano a concepire uno scenario meno desolante. In effetti, considerando che l'universo ha una grande preponderanza di energia oscura (e di materia oscura) che sfugge all'osservazione diretta dei nostri strumenti possiamo immaginare che tale energia in qualche modo salvi il cosmo dalla morte futura.
Inoltre, dal punto di vista di una filosofia che si fa fisica, l'universo non può che avere un tempo infinito cioè deve essere eterno perché altrimenti sarebbe in uno stato di contraddizione logica. ma se il tempo è infinito allora anche l'energia è infinita o meglio il continuum spazio – tempo è infinito. ed allora se tutto è infinito anche il secondo principio della termodinamica potrebbe essere superato perché una infinita energia darebbe il combustibile per un infinito ordine.
Infatti, secondo alcuni studi, principalmente dovuti a John D. Barrow, la massima entropia possibile del cosmo potrebbe essere nel tempo sempre maggiore della massima entropia. Insomma, questa fonte aggiuntiva di energia darebbe la possibilità al cosmo di continuare a vivere.
Ma ammesso che la morte termica sia evitabile che forme di vita potrebbero abitare questo cosmo sempre più immenso ed espanso, in cui la stessa velocità della luce non sarebbe che una bava di lumaca in confronto alle incredibili distanza da percorrere?
A questa domanda ha risposto il fisico Freeman Dyson che ha immaginato per l'universo finale delle forme di vita spalmate sulle nubi di gas interstellare e con consumi energetici ridotti ai minimi e che vivrebbero una sorta di lunghissimo letargo per la maggior parte del tempo.
Dunque, la prospettiva transumata ed estropica di una vita cosciente diffusa in tutto il cosmo potrebbe ancora sopravvivere.
Ma se l'universo invece si contraesse?
A parte che ciò sembra meno probabile dell'ipotesi espansiva, il fisico americano Franck J. Tipler ha una soluzione anche in questa ipotesi: la meta infatti sarebbe il punto omega finale riprendendo le teorie del gesuita francese Theilhard de Chardin. Ma tale teoria è poco convincente ed il finale misticheggiante.
Tuttavia, i progressi delle scienze e delle tecnologie ci dicono che la trasformazione finale, la coscientizzazione dell'intero cosmico è, almeno in linea di principio, possibile.

 

bibliografia

 D. Barrow John "Le origini dell'universo", biblioteca scientifica sansoni 1995
 Dyson , "Infinito in ogni direzione", Rizzoli 1989

Sociobiologia cibernetica

Introduzione generale 

Il mondo è strutturato sulla base dell' evoluzione darwiniana, a sua volta basata sul concetto di "caso e necessità" (vedi J. Monod(1)), il caso inteso come variazione, appunto casuale, del corredo genetico e la necessità intesa come necessità di adattamento all'ambiente. Sul "caso" non si può agire (o meglio, non si può ancora agire ma lo si potrà con tecniche genetiche in un breve futuro) mentre lo si può fare sulla "necessità", ovverossia sull'adattamento all'ambiente che presuppone delle azioni che comportino un utilizzo di energia esterna per mantenere in vita l'unità funzionale vivente. E' proprio questa ricerca di sopravvivenza energetica che porta sia la lotta intraspecie sia la lotta interna ad una specie.
Alla base di tutto vi è il secondo principio della termodinamica; infatti, una sua formulazione semplificata, di tipo biologico, ci dice che un organismo ha bisogno di energia per sopravvivere. Infatti, in assenza di tale energia la struttura comincerà ad aumentare l'entropia interna che porta all'equilibrio termico e cioè alla fine dell'organismo.
Questa è la strategia del "geni" (v. R. Dawkins(2)).
Certamente la società umana organizzata è intervenuta a livello memetico per cambiare le "regole del gioco", cioè dandosi delle "regole", tradotte in leggi che limitano lo "stato di natura" del "tutti contro tutti".Questo permette di massimizzare la speranza e la qualità di vita dei singoli membri. Tuttavia, non dobbiamo dimenticarci, che ad una incredibile evoluzione di tipo memetico, cioè evoluzione delle idee, non ha fatto da contraltare una evoluzione di tipo genetico, cioè fisico, nel senso che il corpo fisico di animali ed umani ha ancora bisogno di energia dall'esterno (e sempre lo avrà) e per ottenerla il modo più semplice che ha è quello appunto di aggredire e predare gli altri organismi. Un modo più complesso invece è quello di programmare le risorse e distribuirle socialmente ed è quello che la specie "homo sapiens" ma anche alcuni altri animali tentano di fare.
In questa ottica sarebbe interessante studiare quel la che potremmo definire una "sociologia cibernetica" di una eventuale società di macchine.
La sfida potrebbe essere quella di una società regolata in modo che ogni membro abbia, in media, più energia a disposizione che fosse da solo. Allora diverrebbe conveniente un certo grado di cooperazione.

Compito di una società evoluta sarebbe quello di trasformare memeticamente la struttura dei rapporti tra individui e nazioni facendo comparire anche il concetto di cooperazione costruttiva ma, ricordandosi sempre (è questo è uno dei punti base del ragionamento) che l'individuo e la società è sempre regolato in massima parte dai geni e quindi conserverà intatti gli istinti

distruttivi che servono a garantire il possesso dell'energia essenziale.
La Teoria dei Giochi(3) ci mostra come, a volte, in certe condizioni, è utile cooperare e quindi anche dal punto di vista sistemico razionale la cooperazione è una scelta razionale che porta vantaggi a tutti;cioè si tratta di una strategia definita "win – win" in cui tutti vincono, ma non sempre è la strategia migliore; lo è, infatti, quando i rapporti tra i membri dell'organismo sociale tendono ad essere costanti e ripetuti nel tempo ed allora la strategia migliore è la cosiddetta "tip for tap" cioè iniziare collaborando e poi far esattamente quello che fa il competitore.
In altri casi, ad esempio un incontro occasionale, la strategia vincente è invece quella puramente utilitaristica. Poiché una società è una struttura complessa basata sui due tipi di rapporti allora anche le relazioni da adottare saranno un misto dei due comportamenti fino a giungere al giusto mix dei due.

1 Jaques Monod "Il caso e la necessità" Oscar Mondadori Milano 1970
2 Richard Dawkins, "il gene egoista", Mondadori, Milano 1994
http://it.wikipedia.org/wiki/Teoria_dei_giochi

Tecnosimbolismo o "Ex Machina Libertas"

L’umanità ha sempre avuto bisogno di “credere in qualcosa” che superi e trascenda la condizione umana e  si ponga ad un livello superiore; per questo motivo, diciamo così di ‘psicologia di massa’ i culti trascendenti hanno avuto e sempre avranno una forte presa sulla popolazione generale. Tale fascino è anche sempre stato esercitato da ogni “culto simbolico” , anche di natura politica. Infatti, spesso, una coreografia simbolica fa da sfondo alle ideologie politiche (soprattutto se di tipo assolutistico).
Inoltre, si è visto e sperimentato, come un eccessivo livello di astrattismo nuoccia, in genere, allo sviluppo di una società equilibrata ed armoniosa. Qualora si tolgano agli uomini i simboli essi tenderanno, in un tempo più o meno lungo, a ricrearli su archetipi fondamentali. Il simbolo (dal greco “sumbolon”, cioè “metto insieme”) diviene quindi un forte mediatore culturale tra esigenza storica e dimensione mitopoietica.
Fatte queste premesse che non sono altro che constatazioni empiriche di sociologia si può supporre che anche il transumanesimo (in seguito, anche H+) e l’estropianesimo necessitino di un substrato culturale di tipo simbolico, che idealizzi il contenuto tramite un’azione di tipo mitopoietico in cui alla “magia” è sostituita la “scienza” e al “mago” (operatore simbolico) lo “scienziato”/”tecnologo”.Anche nel più generale discorso “futurizzante”, cioè nell’ottica di un “agire futurizzante”), sarebbe forse utile introdurre un elemento simbolico (http://www.transtopia.org/symbolism.html), magari di natura multimediale, cioè un “meta simbolo” capace di attivare i contenuti  sociali archetipali e quindi più potenti. Alcuni tentativi sono già stati fatti; ad esempio, nelle arti grafiche, dall’estropista  Natasha – Vita More (http://www.natasha.cc/), oppure nella musica con alcuni generi di musica, per esempio la “Tekno” .
Tale movimento si chiama “transtopia” è ha come simbolo il “serpente metallico” rappresentato in queste pagine. In pratica, si tratta di un tentativo di “contaminare” l’ H+ con il simbolismo.

Alla parte “simbolico rappresentativa” sarebbe anche utile far seguire una mitopoiesi finalistica di tipo estropico, una sorta di “tecno .  gnosi futurizzante” che indichi all’umanità una meta finale, un obiettivo, uno scopo concreto e socialmente condiviso (vedi, ad esempio, la ‘teoria del punto omega’ del fisico Franck Tipler – e del gesuita  e scienziato Pierre Theilard de Chardin).In definitiva, visti da un punto sistemico, questi non sono altro che tentativi di istituire una nuova metafisica, articolata sulla scienza e tecnologia che, esteriormente sia caratterizzata da profondi significati simbolici ed interiormente da una visione teleologica di un “obiettivo finale”.
In questa ottica poi, come abbiamo già detto, il “turbo capitalismo ad innovazione continua”, cioè il “capitalismo esponenziale” che reinveste ed innova lamarkianamente (cioè in maniera ‘mirata’) il proprio prodotto su se stesso può essere il veicolo economico ed il substrato realizzativo della visione H+.

Immagini tratta dal sito http://www.transtopia.org/

La ripresa del programma spaziale USA

spazioDa tempo era stato annunciato l’ambizioso progetto USA di rimandare l’Uomo sulla Luna (dopo la conquista avvenuta  il 20 luglio 1969) e la data proposta era stata quella del 2020 (dopo una prima missione alla stazione spaziale orbitante nel 2014). Ora (agosto 2007), tale promessa, viene corroborata ed inverata da un sostanzioso programma finanziario che il Presidente George W. Bush ha messo a disposizione della NASA.
Il nuovo Programma spaziale si chiamerà “Constellation” (con un budget di 10.5 miliardi di $), mentre è già pronto anche il nome della nuova navicella, “Orion” con razzo propulsivo “Ares” (“Marte”, nella mitologia greca).
La costruzione abbinata di Orion ed Ares  (equivalenti di Apollo e Saturno nel programma di missione lunare precedente) sarà affidato alle più importanti aziende del settore aeronautico, tra cui, naturalmente, primeggia la Boeing (che ha già annunciato assunzioni per centinaia di posti di lavoro nella zona disastrata dall’uragano Katrina di New Orleans). La somma messa a disposizione sarà una da 515 milioni di dollari (prima tranche) per la fase sperimentale e l’altra da 610 milioni di $ per la fase di produzione (sono previsti 6 esemplari l’anno del missili Ares), per un totale di  circa 1, 1 miliardi di $.

Il maggior contratto l’ha vinto lo scorso anno la Lockheed Martin (7.5 miliardi di $) per la Orion, mentre 1.8 miliardi di $ vanno al Gruppo Alliant per i razzi Ares con tecnologia della Pratt&Whitney che costruì i razzi Saturn per le missioni Apollo che portarono l’Uomo sulla Luna.
Sarà una coincidenza, ma la ripresa dei Programmi spaziali USA coincide con la nuova politica spaziale cinese (partita nel 2004 con il satellite Chang -1 e con il vettore “Lunga Marcia”) ad ulteriore dimostrazione che la “competizione” è probabilmente la principale molla che spinge una nazione a dedicarsi alla conquista dello spazio.
Infatti pare che, alla contrapposizione ideologica tra URSS ed USA  che fu il vero carburante della conquista della Luna nel secolo scorso si sia sostituita, dopo quasi 40 anni, la contrapposizione economica tra USA e Cina.
La ripresa della corsa alla conquista dello Spazio non può che fare piacere ad un movimento, come quello Futurizzante, che fa dell’esplorazione dello spazio una delle priorità tecnologiche per il futuro. 
Lo sbarco del 2018 è solo una prima tappa di un programma spaziale più ambizioso che dovrebbe portare alla creazione di una base lunare stabile da cui poi far partire missioni planetarie il cui più probabile obiettivo è il pianeta Marte.
Una volta raggiunto Marte e creata una base permanente un’ipotesi plausibile è quella di “terra formare” il pianeta rosso, rendendolo, appunto, simile alla nostra Terra.
Ad esempio, vi sono già studi per creare un “effetto serra” artificiale sul pianeta in modo da far sciogliere parte delle calotte polari marziane e liberare così l’acqua ivi racchiusa.
Inoltre, l’aumento medio della temperatura, permetterebbe di ricreare un clima marziano molto più simile a quelle terrestre.

Linkcografia
http://www.nasa.gov/
http://www.nasa.gov/mission_pages/constellation/orion/index.html
Immagini della nave spaziale Orion tratta dal sito NASA

La classificazione delle societa' in funzione dell'energia e dell'informazione

Vi possono essere molti modi di classificare una società, secondo la tecnologia, secondo le forme di governo, secondo le religioni dominanti e… secondo l’energia di cui dispongono.

In questa ottica il fisico russo Nikolai Kardashev, nel 1964, propose, nell’ambito di una possibile caratterizzazione della civiltà extraterrestri di utilizzare come parametro l’energia che esse riuscivano ad utilizzare.

Vediamo quindi le categorie proposte.

CLASSIFICAZIONE SECONDO IL CONTENUTO DI ENERGIA

CIVILTA’ DI TIPO 0

Non hanno ancora sviluppato forme di vita, neppure microbiche e quindi sono, per definizione, incapaci di utilizzare energia.

CIVILTA’ DI TIPO I (10^16 Watt)

Sono civiltà che hanno imparato a sfruttare le fonti di energia planetaria. Esse sono infatti in grado di utilizzare tutta l’energia che giunge loro dalla propria stella, tipicamente 10^16 Watt. E’ probabile che una tale tipo di civiltà resti ancora sul suo pianeta per secoli, per risolvere problemi di tipo sociale e politico, prima di prendere la “strada delle stelle”. Dato l’alto costo dei voli spaziali (attualmente per una missione Shuttle 800 milioni di $) è probabile che una tale civiltà si limiterà ad un “ascensore spaziale” a nanotubi tra la Terra ed un satellite in orbita geostazionaria (36.000 Km).In seguito, con la costante diminuzione dei costi dei voli spaziali si potrebbe “terra formare” Marte, creando un “effetto serra” artificiale immettendo metano nell’atmosfera marziana; l’aumento della temperatura scioglierebbe i poli e quindi si avrebbe a disposizione acqua. Ma forse è più probabile che tale tipo di civiltà si dedichi a missioni interplanetarie con motore ibrido solare – ionico al Cesio).Entro 100 anni dal raggiungimento del Tipo I potrebbero inviarsi sonde con un autoreattore a fusione che raccoglie idrogeno dallo spazio.

CIVILTA’ DI TIPO II (10^26 Watt)

Sono civiltà che hanno esaurito le energie planetarie e che hanno imparato ad utilizzare direttamente quelle della propria stella, mediamente un flusso di circa 10^26 Watt. Questo tipo di civiltà può controllare i brillamenti solari e sono capaci di fare “accendere” nuove stelle.

Ha colonizzato parte della galassia. Il fisico Freeman Dyson ha ipotizzato che un tale tipo di civiltà potrebbe costruire un “guscio” intorno alla sua stella (“sfere di Dyson”) per poterne utilizzare tutta l’energia da fusione. Tali sfere emetterebbero una radiazione caratteristica nell’infrarosso che potrebbe essere individuata nello spazio. Una civiltà di questo tipo colonizzerebbe il sistema solare ed utilizzerebbe propulsori materia/antimateria per viaggi interstellari, facendo raggiungere velocità prossime a quelle della luce. Un tale tipo di civiltà controllerebbe il clima, le meteore e potrebbe salvarsi dall’esplosione di una supernova migrando o interferendo nel suo cicli nuclearmente.

CIVILTA’ DI TIPO III (10^36 Watt)

Sono civiltà che dispongono dell’energia del proprio sistema solare e di parte delle stelle della propria galassia, circa 10^36 Watt.

A tali livelli di energia si può rendere instabile lo spazio – tempo .Tale tipo di civiltà, con buona probabilità, colonizzerebbe la propria galassia; ad esempio, per la via lattea (diametro: 100.000 anni luce, a.l.) l’ “onda di colonizzazione” si sposterebbe alla velocità di circa 0.02 a.l. / anno ed in 5 milioni di anni giungerebbe ai suoi estremi confini. Il radiotelescopio di Arecibo ha tentato di individuare emissioni da Civiltà di Tipo III sulla lunghezza d’onda di 1.42 Giga Hertz (che è la riga dell’idrogeno gassoso), ma non vi è traccia di essa nel range tra 10^18 e 10^30 watt, inoltre avrebbero potuto usare una frequenza di trasmissione diversa.

CIVILTA’ DI TIPO IV (maggiore di 10^46 Watt)

Questa classe è stata aggiunta dal fisico americano  Michio Kaku, City College di New York.Tale tipo di civiltà sarebbe in grado di utilizzare la cosiddetta “energia oscura”, circa il 73% dell’energia totale dell’universo; tale fonte è enorme ma estremamente diluita (a bassissima densità).

Tale tipo di energia è antigravitazionale ed è quella che sta accelerando l’attuale espansione dell’Universo. Tale quantità di energia renderebbe lo spazio – tempo estremamente instabile.

Nota 1

Ogni civiltà differisce dal tipo inferiore (o superiore) per un fattore energetico pari a 10 miliardi

Nota 2

Nella classificazione di Kardashev la nostra civiltà sarebbe circa a livello 0.7, cioè 1000 volte più piccola, in termini di produzione di energia, di una civiltà di tipo I.

Nota 3

Carl Sagan ha proposto, per un migliore utilizzo pratico, anche una sottocatalogazione e cioè, ad esempio, civiltà di tipo I.1 = 10^17 Watt, I.2 = 10^18 Watt…fino a I.10

Nota 3

Internet è un sistema telematico emergente tipico di una civiltà di Tipo I

Nota 4

Con buona probabilità una civiltà di tipo I sarà dominata da blocchi commerciali (come attualmente USA, UE, Cina), piuttosto che da singole nazioni.

Dunque, come abbiamo visto, una civiltà si può caratterizzare in base all’energia che ha a disposizione per evolversi.

Nota 5

Basandosi sulla nota “equazione di Drake” si può stimare che, solo nella nostra galassia, esistano tra le 10.000 e 1.000.000 di civiltà in grado di inviare segnali radio.

CLASSIFICAZIONE SECONDO IL CONTENUTO DI INFORMAZIONE

Tuttavia, il già citato Carl Sagan, propose anche un altro modo di catalogare le eventuali civiltà cosmiche.

In base al contenuto di informazione posseduto. Così una civiltà di tipo “A” elabora 10^6 bit (civiltà primitiva, priva di lingua scritta).L’introduzione della scrittura fa “esplodere” il contenuto informativo di una civiltà. Ad esempio, l’intero patrimonio culturale dell’antica Grecia corrisponde a circa 10^9 bit di informazione e quindi ad una civiltà di tipo “C”.

Sagan, valutando la quantità di informazione della nostra civiltà, includendo libri e foto giunse al valore di 10^15 bit (solo libri: 10^13) e quindi la nostra civiltà è, secondo tale modalità, di tipo “H”.

Unendo i due tipi di classificazione e cioè quello di Kardashev e quello di Sagan, potremmo affermare che la nostra civiltà è di tipo 0.7H.

Nota 5

Si osservi che, in realtà, i due tipi di classificazione non sono  completamente indipendenti. E cioè Energia e Bit sono collegati in quanto per elaborare informazione occorre energia.

Nota 6

C. Sagan ipotizzò che un primo incontro con una eventuale civiltà extraterrestre possa avvenire almeno nel range classificatorio 1.5J – 1.8K, perché solo in tale intervallo una civiltà è capace di voli stellari.

Nota 7

La classificazione energetica delle possibili civiltà fu introdotta appunto nello scorso secolo per avere un criterio che permettesse di individuar e una eventuale civiltà extraterrestre in funzione di una “radiazione caratteristica” di quella civiltà e quindi si potesse dirigere con un criterio la ricerca radioastronomica radiativa.

Nota 8

Nella nostra civiltà, la crescita del PIL medio mondiale è dell’ordine dell’ 1.5% annuo e quindi questo sarà, grosso modo, il “tasso di crescita” energetico mondiale, in assenza di significativi “disaccoppiamenti” tra PIL ed Energia. Considerando, in prima approssimazione e per semplicità, costante tale valore possiamo fornire una stima del tempo necessario perché la nostra civiltà passi dal valore attuale 0.7 a quello 1.0 e cioè aumenti di 1000 (10^3) volte la sua energia utilizzata.

Quindi possiamo fare uno scenario (Michio Kaku) con un range di crescita del PIL mondiale compreso tra l’1% e il 2% annuo.

Società di Tipo I: 100 – 200 anni

Società di Tipo II: 1000 – 5000 anni

Società di Tipo III: 100.000 – 500.000 anni.

Si noti che la fase più critica è proprio quella della transizione ad una civiltà di Tipi I.

Infatti la stessa tecnologia (energia nucleare, nanotecnologie, inquinamento) potrebbero distruggere la società stessa (Sir Martin Rees, professore di cosmologia al Trinity College, Cambridge, UK), stima al 50% la possibilità che la nostra società si auto distrugga nel passaggio dal livello 0.7 a quello 1.0).

 

Bibliografia

Kaku, M. “Mondi paralleli”edizione speciale per “Le Scienze” della Codice Edizioni, Torino 2007
Dyson, F. “Mondi possibili”, McGraw-Hill, Milano 1998
Webgrafia
http://www.seti-italia.cnr.it/

Futurizzazione e movimenti futurizzanti

Inizio la collaborazione a questo sito futurizzante con la speranza di apportare un contributo alla importante azione del Professori Carlo Pelanda intorno alla tecnologia, alle scienze, al pensiero razionale che aiutano ed aiuteranno l'uomo a trascendere la sua condizione umana per migliorare la sua qualità della vita.
A tale proposito, ormai da molto tempo esistono, soprattutto negli USA, movimenti che cercano di propugnare tale visione della vita .La Scienza e la Tecnologia come strumenti utili per far progredire l'umanità.
Questi movimenti come l''estropianesimo' (divenuto poi 'transumanesimo') del filoso inglese Max More hanno avuto un ruolo molto positivo nel proporre e predisporre un "clima culturale", un humus fecondo su cui far crescere questa visione futurizzante del mondo.
More, infatti, fondò il suo "Extropy Institùute" nel 1991 iniziando a parlare di crionica, terapie antiinvecchiamento, mind – uploading (cioè il trasferimento della coscienza su supporto elettronico).
Partito da posizioni ultra liberiste il suo pensiero poi si è successivamente modificato nel corso del tempo e alla fine si è abbastanza conformato a quello dominante negli USA della WTA (World Transhumanist Association) che è sostanzialmente un'organizzazione che sta divenendo sempre più spostata a "sinistra" nella sua critica al capitalismo ed al liberalismo economico, tendendo ad "terzomondismo" di maniera.
E l'Italia?
Non potevano mancare gli epigoni che superano il maestro.
E così dal 2004 è nata in Italia l'AIT, Associazione Italiana Transumanisti diretta da un sociologo, Riccardo Campa, di una poco nota Università polacca che ha voluto imprimere ancor di più una accelerazione verso una totale politicizzazione della struttura che ora risulta formata da persone coptate e non regolarmente elette e che ha anche, pensate un po', una sorta di "polizia" interna, l' "Epistepo" che vigila sul "credo" "tecno –estremista" dei partecipanti; chi sgarra dalla "retta via" del "credo ufficiale" viene dapprima imbavagliato elettronicamente e poi espulso dalla associazione, alla faccia della tanto sbandierata democraticità estremista del gruppo.
Le velleità del sociologo polacco si spingono fino a voler costruire un fantomatico partito transumanista italiano di cui, lui sarebbe naturalmente il leader naturale a vita e, magari, post mortem, magari utilizzando qualche tecnica criogenica, alla maniera delle mummie dei leader del socialismo reale.
Ora, al di là dello scherzo, noi crediamo che la futurizzazione sia qualcosa di estremamente serio e che non debba essere eccessivamente pasticciata con la politica da apprendisti stregoni che vogliono entrare nella politica stessa da una porta innaturale, non essendo stati capaci di entrare dalla porta principale.
Noi riteniamo che un movimento futurizzante debba ispirarsi alla economia di mercato, alla libertà, alla possibilità di esprimere pareri diversi e che debba contribuire concretamente a creare quelle condizioni per una vera società nuova, maestosamente proiettata verso un futuro di benessere e prosperità.
Il capitalismo è il motore propulsivo per il benessere e lo sviluppo di una società moderna e avanzata.
Solo generando "valore aggiunto" e denaro per gli investimenti si avrà quella forza d'urto necessaria ad innescare il traguardo della "singolarità tecnologica", quel punto cioè dello sviluppo della società in cui la crescita tecnologica diverrà esponenziale ed irreversibile.
Per questo vogliamo parlare più di tecnologia e meno di politica, più di scienza e meno di "polizia repressiva".
Noi desideriamo rispettare la libertà e la volontà di costruire di tutti e non vogliamo essere irreggimentati in una setta semiclandestina.
Questa è stata e sarà sempre di più la funzione di un sito futurizzante o, meglio ancora, di una Associazione Nazionale Futurizzante che abbia un compito propulsivo e propulsore nello sviluppo di un capitalismo pronto a fronteggiare le grandi sfide tecnologiche e che sia base di un aumento per il benessere della società tutta.
Siamo dunque sinceramente preoccupati per quello che accade nel piccolo mondo d'avanguardia tecnologica in Italia; occorre dunque che, anche in questo campo, le forze sane e veramente liberali, si facciano propugnatrici di quel cambiamento decisivo che sta relegando l'Italia nei posti più bassi degli indici di sviluppo tecnologico mondiale.

© The Unedited 2018
contacts: info@theunedited.com