x
Titolo


  FB   TW   whatsapp

Free space for free expression in english & italian

Established
1999
Managed by
F.Brunelli

The Tennessee Walker
The Tennessee Walker
By The Tennessee Walker
Hillary 2.0?

I predict Hillary Clinton will become the Democratic Party’s presidential nominee at the July 2020 DNC convention. However, Trump will ultimately win re-election in November.

 

            The most important thing to know when analyzing national elections in the United States is that there is an “establishment” wing of the Democratic Party and a “grassroots” wing. This dichotomy is true of the Republican Party as well. The generally successful strategy for candidates is to hold extreme policy positions during the primary season to generate grassroots support, then shift to a moderate policy platform in the general election to attract independent voters. Candidates have to appear credible to both constituencies (establishment and grassroots) while managing the policy shift from extreme-to-moderate.

           

The candidates

 

Elizabeth Warren had a dramatic surge in the polls during the Fall of 2019. She was drawing crowds of over 10,000 people to her campaign events. Warren’s main platform is economic populism, which she articulates very well and which resonates powerfully with the Democratic base. The problem? Elizabeth Warren’s brand of economic populism does not resonate with the Party’s donor class, the “establishment”. Even as her popularity surged among the party’s base, the large donors and corporate elite, who would not benefit under Warren’s policies, withheld support. Warren lost momentum and she has fallen in the polls ever since.

            Bernie Sanders has had a consistently popular democratic socialist platform and his poll numbers are challenging the frontrunner, Joe Biden. Bernie does not have the support of the donor class, but unlike Warren, he does not need it. In the last 3 months of 2019, Bernie Sanders raised $34 million from 1.8 million donations, with the average donation being $18. The donor class does not like his anti-capital positions and many in the Democratic Party do not believe (perhaps mistakenly) that he can win in the general election due to his democratic socialist platform. Most importantly, Sanders is 78 years old, and his health is an issue - he had a heart attack on October 1, 2019.

Joe Biden is often considered the perfect candidate. He is beloved by the grassroots for his “folksy” manner and by the donor class alike. He has a long political history and is therefore a predictable choice for the establishment. However, his cognitive abilities have severely deteriorated. He has clear neurological problems and is struggling. It really begs the question, why is the Democratic Party running a 77 year old man with clear cognitive impairments as its frontrunner? More on this later.

            The other candidates are interesting but not likely to gain meaningful traction. Bloomberg is notable for his business prowess and deep financial reserves and relationships. However, after spending $300 million on advertising, his poll numbers barely improved. He simply does not have the charisma to run a successful national campaign. Some analysts have surmised that he is running to insert Gun Control more prominently into the national debate. Regardless, for our purposes, he is not relevant. If he pre-announces a vice presidential running mate with charisma, he could possibly create a compelling candidacy.

Buttigieg is well-liked among the younger generation of the donor class (Silicon Valley) but he struggles with the base. He has a peculiar establishment background (Harvard, naval intelligence, Mckinsey, etc.) and his father founded the International Gramsci Society. It is an interesting plot line and could gain traction given his powerful allies, but probably not relevant to the final election outcome. Tulsi Gabbard is notable as a veteran and for her anti-war platform which resonates with the base, but the establishment is adamantly against her platform and independent streak. Andrew Yang is a highly intelligent and independent candidate, which is interesting in terms of what his candidacy says about the base, but he is most likely irrelevant for the 2020 final outcome.

 

“Super Delegates”

 

The Democratic Party has a primary system that includes “super delegates”. Voters in the Democratic primaries cast their vote at polling locations throughout their state. The state Democratic Party then awards state delegates to the candidates proportionally, according to how many votes they received. The state Party sends those delegates to the national Democratic Party convention where they are “pledged” to vote according to the state vote tallies for each candidate. Super delegates also represent the state at the national convention but they are unpledged delegates, i.e. not bound by the results of the state’s primary voting. Super delegates can vote for any candidate they choose at the national convention.

For instance, in the 2016 Iowa caucuses, 704 local delegates (representing primary voters at the state level) voted for Hillary Clinton while 700 local delegates voted for Bernie Sanders. This resulted in Clinton having 23 pledged state delegates from Iowa for the DNC national convention and Bernie Sanders having 21 pledged delegates. However, 6 “super delegates” sided with Clinton giving her a total of 29 delegates from Iowa for the national convention. In 2016, 85 percent of super delegates supported Hillary Clinton.

In 2016, Debbie Wasserman Schultzs, chair of the Democratic National Committee (the governing organization of the Democratic Party), actually stated in an interview, “Unpledged delegates exist to make sure that party leaders and elected officials don't have to be in a position where they are running against grassroots activists.” Due to broad anger in the Democratic Party’s base about what was perceived as a bias in the establishment’s favor, the Party changed the rules such that super delegates only come into play if the national convention becomes a “brokered convention”.

 

A “brokered convention”

 

A “brokered convention” simply means that if no candidate has a clear majority of votes after the first ballot at the DNC national convention in July, there is a second round of voting. For a candidate to win the Democratic Party nomination during the first round of voting, they have to receive 1,919 delegate votes. With at least three strong contenders (Biden, Sanders, Warren) and others rising, there is a real possibility of no candidate receiving that minimum number of delegates.

After heavy criticism over the role of super delegates in the 2016 election, the DNC changed its rules in 2018 such that super delegates can only play a role in a second round of voting at the national convention. So conceivably, no current candidate wins on the first round of voting. At that point, it becomes a brokered convention, and all delegates that were previously pledged to one candidate are “released” and can vote for whomever they choose. In the second round of voting, an entirely new candidate can enter the race.

Such an unstable scenario allows Hillary Clinton to enter the field as a “savior” from the chaos. Hillary still has a strong grip on the DNC and is actively participating in meetings, according to sources that have been on DNC conference calls. Tulsi Gabbard called this out in October, “From the day I announced my candidacy, there has been a campaign to destroy my reputation. We wondered who was behind it, and now we know… I challenge her [Clinton] to come out from behind her proxies and powerful allies in the corporate media, and face me directly.” Hillary Clinton went so far as to state that Russia is “grooming” Gabbard as a third party candidate and said, “She [Tulsi] is the favorite of the Russians.” More recently, Hillary Clinton has been attacking Bernie Sanders in the press. So Clinton has been shaping the race from the beginning.

The benefit of a brokered convention for Hillary Clinton is that it looks organic and she can avoid the accusation of 2016 - that she rigged the nomination process against Bernie Sanders. Also, if nominated in July, her candidacy would be only 3 months long. Much of the negative press that plagued her public life would not have sufficient time to gather speed. Also, such a short period would be much easier on her health which was called into question during the 2016 race.

The fact that the Democratic Party and its media allies continue to push Biden as the frontrunner is conspicuous. It is an interesting question as to whether Biden was placed in the primaries intentionally to split the vote and allow for a brokered convention. Hillary understands how unpopular she is among American voters and by having Biden represent the establishment throughout the primaries, she keeps Bernie Sanders from getting the required 1,919 delegates at the convention and effectively bypasses all of the drama and close examination of the primary season.

 

The Clinton strategy

 

            Hillary Clinton will use the next 6 months to shape her image as someone who can act as a “savior” from the chaos and beat Donald Trump. The line will be, “you may not like me, but I’m effective”. Her DNC and media allies will be pushing a message of “anyone but Trump”.

        For her savior image to work, she will need a voting base that is (a) destabilized via the brokered convention and (b) desperate for a savior that can defeat Trump. Over the next months, she will try to avoid the appearance that she is preparing to enter the race at the convention, but it will be difficult. She will also try to balance support for the frontrunners (currently Biden, Sanders, Warren), using her corporate media allies, so that no candidate gets a majority at the convention in July. That will primarily entail her and her allies attacking Bernie Sanders who is the clear frontrunner for grassroots voters.

Then, if Hillary Clinton becomes the candidate in July, she will utilize her allies in the mainstream press to keep the attention on Trump. The mainstream media is already a massive echo chamber with 93% of news being negative toward Trump. Hillary will run on an “anything but Trump” platform and will limit the news flow about herself or her campaign. She will utilize her allies in Silicon Valley and the mainstream press to actively shape the news flow.

There is a new documentary coming out about Hillary Clinton in March, and the first look reveals an honest message of “yes, I am a divisive leader, and I know it’s hard to like me”. So in this first stage, she will acknowledge the problems of her past candidacy and public life. In the next stage, that vulnerability and honest assessment will be followed with a “So what? The Party is in disarray and it needs me.” The tone and presence of her “stealth” candidacy will become more strong and ruthless as we approach the July convention. Her strategic goal is for strength to be more important than likability at the convention.

           

The prediction

 

I predict that Hillary Clinton will become the Democratic nominee, but Trump will win again in the November 2020 election. The support among his base has only increased since 2016. Tens of thousands of voters are still flocking to his rallies, sometimes waiting 20 hours in freezing temperatures to get inside.

The attacks on him so far have been unsuccessful. “Russia Gate” - accusations that Trump colluded with Russia to win the 2016 election - led nowhere. In the wake of the November impeachment hearings over dealings with Ukraine, Trump’s approval numbers actually increased. The public’s reaction to the impeachment was largely indifference, despite the mainstream press and Democratic leadership trumpeting that “the fate of our democracy hinges on this moment”. Currently, the Senate is holding a trial after receiving articles of impeachment from the House of Representatives. Trump’s approval rating rose 3 points during the trial’s first week.

            The US public is experiencing “Trump fatigue” and shrugs off every controversy the Democratic party tries to pin on Trump. The establishment wing/ Clinton team would like to believe that 2020 is different, but the public will simply see a Clinton versus Trump matchup in the exact same light as 2016. In addition, Bernie Sanders supporters will be even more enraged in 2020 and even less likely to vote for Hillary Clinton in November.

 

How Trump could lose

 

There is one main scenario where Trump loses and that is if the United States enters recession prior to the election in 2020. That currently appears unlikely, although there are signs that we are nearing the end of this business cycle. For instance, the unemployment rate is at a record low. We have a robust economy with no slack in the labor market. At the same time, consumer debt defaults are rising. Historically, there is a significant lead time from when consumer defaults start rising and the unemployment rate turns up again leading into a recession so it appears unlikely in 2020.

            The economic environment seems similar to the wage-push inflationary environment of the mid-1960s. Inflation was just starting to pick up, but no one knew it or felt it. Trump voters may be losing ground due to this burgeoning inflationary environment, but they don’t recognize it. Inflation starts out as a stealth problem. Ironically, that is helpful for Trump who only needs voters to feel good for the next 10 months.

            There will be other attempts to stop Trump - accusations of sexual misconduct, corrupt business dealings, abuse of executive power - but none of these have worked so far. If Trump’s actions in Ukraine and Iran are any indication, he has so far been effective at thwarting geopolitical sabotage efforts (i.e. Kerry back-channeling with Iran).

            There is one other outlier that has to be considered. Voter fraud and outright election fraud are very real problems. Consider the fact that some California counties reported more votes than there are registered voters. So Trump could be defeated with an orchestrated and targeted Election Fraud strategy - whether via the electronic voting machines or through actual physical voting. In several key swing states, he only won by several thousand votes so it is a real possibility. There is also the impact of Silicon Valley’s grip on social media. The prominent research psychologist Dr. Robert Epstein has estimated that Google was able to shift between 3 and 10 million votes to Hillary Clinton during the 2016 election via manipulating search results.

 

The fight for the American Empire

 

            There is a loose constellation of corporate and political interest groups that protect the American Empire’s structure, which allows for leveraging American financial and military power globally to establish advantageous trade regimes and political unions. This worked for awhile, but now the American public can no longer bear the burden of the Empire.

      In the course of setting up and defending this structure, many “globalist” agents set up what are essentially toll booths along the frontier of the empire. If foreign partners want into the imperial core, or internal actors want outside, they have to pay the toll to these globalist operatives. Over time, the loyalty of these operatives to the United States has come into question. Trump is part of a group that is loyal to the United States and trying to rebalance the American Empire. These “toll keepers” are not happy about it.

         For instance, he boasts of Saudi Arabia paying $1 Billion for more troops. He wants countries to pay to host American troops and bases. He wants NATO members to pay more. He wants to renegotiate trade agreements. He wants Europe to buy American energy. Every foreign policy initiative by Trump can be reduced to this rebalancing effort.

The American public doesn’t fully understand this strategic shift, but they intuitively grasp that Trump is trying to do something different than the “globalist” status quo and so they vote for him, even if they don’t like him as a person. There are many different “deep states” and “globalists” in the US. Trump represents a nationalist brand with its own military, intelligence, corporate and financial assets. The group working with Trump has no choice but to exercise all available resources to ensure he wins the 2020 election.

In January 2016, I predicted that Trump would win because he presented the most compelling case for rebalancing the American Empire. I predict he will win again.

G. Zincone
Zinconeide
By G. Zincone
Politica culturale di massa, pandemia, new media. Una rivoluzione mancata?

Tempo di rivoluzioni sovrapposte:
nuovi mezzi/nuove modalità di comunicazione - sociologia e prospettive;
evoluzione micro/macro e geo-economica tra innovazione tecnica settoriale, aree di telelavoro, impatto delle macrocapacita’ di calcolo nelle transazioni e nelle previsioni;
pandemia Covid 19 (male prevista, gestione ed esiti non prevedibili).

Parto da una personale fallacia narrativa: oggi e cento anni fa (Weimar/adesso).
In breve:
disgregazione degli Imperi Centrali,
deflagrazione degli Stati Ipernazionali,
finestra ipercreativa (in realtà, spesso prosecuzione del prima - fisica, arte, letteratura e pensiero),
implosione tragica.

Focalizzo sulla politica culturale di massa, opportunità concesse, prospettive e antidoti.

Dato empirico: sovraesposizione ai dati pandemici.
I media tradizionali inondano da mesi la nostra percezione con dati numerici, ipotesi di contenimento, prospettive.
Da alcune settimane ciò si incrocia con previsioni economiche e altre ipotesi di correzione.

Iniziate prima e su questo scenario, alcune modalità innovative di creazione di consenso e tentativo di governo basate su psicologia di massa e new media.
Esempi: campagne elettorali USA (crowd funding e new media, dai media nazionali letti progressivi - Obama, e regressivi - Trump, Brexit), europee (Ungheria, Polonia), nazionali (Berlusconi, Renzi, Salvini in modalità ibrida; M5S in modalità integrale).

Scenario nazionale italiano:
dal tempo della crisi dello Spread, nascita e successo di un movimento a modalità iniziale interamente basata sui new media, M5S.
Ovvero - per semplificare - Casaleggio e Associati (C&A).

Bias favorevoli:
1) iniziale limitazione dei diritti individuali di allora (riforme Monti/Fornero 2012), conseguenti probabili disordini di massa a fronte di restrizioni;
2) per chi scrive, concezione elitista (straussiana) delle decisioni politiche.

Premessa
C&A ha dimostrato grande innovativa competenza nel creare una entità politica M5S e generare un consenso imponente (30% dei votanti).
La straordinaria concentrazione di fattori per una politica culturale di massa negli ultimi mesi ha offerto possibilità ancora più straordinarie a C&A.

Come C&A si intendono generalizzando le sue emanazioni politiche (M5S, singoli ministri, cariche in enti pubblici, primo ministro).

Fattori
1) un evento negativo eccezionale rinsalda intorno al potere simbolico (premier, bandiera, nazione);
2) il governo a due attori principali (M5S già dimezzato poi stabile e ancora potenzialmente gestibile; PD in crisi implosiva sebbene più abile nelle manovre), comprimari inutili o renitenti a squilibrare le forze in campo;
2) l’antitesi al potere (Lega, in seconda FdI) ha dimostrato gravi limiti di coerenza politica basandosi più sull’indicazione di nemici esterni (immigrati, UE) che su una strategia comunicabile credibile politica (alleanze transnazionali contraddittorie) ed economica;
3) tale antitesi Lega-FdI, Lega soprattutto, è persistentemente stigmatizzata dai grandi media tradizionali (grandi testate giornalistiche, RAI) o non appoggiata da altri (Mediaset, legata a para-opposizione consensuale dei resti del partito di Berlusconi);
4) per 6 settimane si è comunicato esclusivamente sulla pandemia. Dopo, le prospettive di crisi economica hanno trovato un po’ di spazio.

Ne sono derivati i seguenti vantaggi per il governo:
a) coesione da sindrome di accerchiamento;
b) assenza di contraddittorio;
c) totale libertà di decisione;
d) annichilazione virtuale e stigmatizzazione dei competitori;
e) possibilità di trattare la maggioranza degli elettori come plebe romana nel tardo Impero (consenso elargitorio);
f) potere affabulatorio su questa plebe (Casalino dal GF alla direzione comunicativa del premier).

Perché non ne è scaturito un vantaggio a medio termine?

C&A non ha saputo raggruppare una élite dirigente.
Tra errori palesi ed errori strategici.

Prima delle elezioni ha selezionato candidati nativi digitali inesperti della complessità della politica senza stabilire una catena di comando effettiva dietro la cd democrazia digitale.

Insieme a questi, ha cooptato per pseudoassemblee (digitali a numero chiuso) un grande numero di mediocri pseudocompetenti limitandosi a un approccio anticulturale da blog.

Consapevole di mancare di élite (così come l’Armata Rossa con gli ufficiali zaristi meno motivati), vinte le elezioni ha arruolato un certo numero di intellettuali.
Alcuni hanno disertato dai gruppi di appartenenza per vantaggio personale (cd effetto valanga),
Altri sono stati recuperati da posizioni universitarie secondarie e/o ambigue.

Non sono state considerate le posizioni dei singoli.
a) sindrome “Bar del lunedì” - ciascun incompetente (specie con attributi di potere) sente di poter sentenziare su tutto;
b) indisponibilità a recedere da una posizione vantaggiosa occupata (dai vertici ai consiglieri comunali) per persone senza cursus honorum.
c) soprattutto, la forma più diffusa attuale di disturbo della personalità. Il narcisismo.
Sopra tutti, Conte.

Nei fatti, dopo la ipersemplificazione originaria, la maggiore fragilità deriva da altro.
Alla eccezionale valutazione delle novità comunicative ha corrisposto la sottovalutazione della complessità della politica.

Conclusione
C&A avrebbe potuto realizzare un progetto di assoluto impatto... se ne avesse avuto uno.
Nonostante la compiacenza degli “Imprenditori della Disponibilità” (D. Kahneman).

"La politica è come la Sfinge della leggenda. Divora chiunque non riesca a risolvere i suoi enigmi."
Antoine de Rivarol (in Ernst Jünger , "Massime di un cinservatore", Guanda).

P. Paracchini
Reflections on Italy
By P. Paracchini
Italy, where too many cooks spoil the broth for everyone but themselves!

Italy remains the least governable and most unstable member of Nato, not to mention the UE. Despite being one of the original six Founding Members and one of the principal financial supporters of the UE, Italy does not carry the political weight one would expect of the EU’s second major manufacturing Power. A question of leaders and leadership?

 

Fourteen months ago, despite an electoral law hastily redesigned to encourage multi-party politics as opposed to the bi-party politics of the Berlusconi “era," Italian voters, clearly sending a message to their leaders side-stepped the traditional parties and voted resoundingly for two up-starts known as the M5S and Lega parties. These two parties subsequently formed the first two-party coalition government in the history of the Republic. Known as the “Government for Change," that government was put into sudden-death overtime by Matteo Salvini, leader of the Lega on August 8, 2019. 

 

After a little more than one year, Italians stand aghast as Italy’s leaders once again seem intent on playing “craps” with the lives of their fellow citizens. Naturally, for the good of all Italians, but most of all for the good of the Country’s numerous and highly paid bureaucrats and, of course, for the thousands of MPs and politicians required to represent a shrinking Italian electorate now down to about 50 million people.

 

No one on the right or left of the political spectrum can deny Italy needs “a better mouse trap”. In the age of real-time communications, smart phones, computers and broad-band internet connections, Italy needs a political machinery that    is democratic, quick to decide and cost effective.

 

The present Constitution and Institutions do not seem to guarantee any of the above. What to do?

 

  1. Reduce the number of MPs. It makes little sense for Italians to pay for 1000 legislators when half would be more than enough to adequately represent Italy’s decreasing eligible voter population of some 50 million. An example? Italian Representatives represent 80,000 people each compared with 733,000 people each by their American counterparts. Italian Senators, which are less than half in number, represent 200,000 people each. However, in the US Senators represent the individual States and no comparisons are possible.
  2. Cut the outrageously high cost of Italian politics. Italian MPs earn more than € 190,000.00 per year. They are the highest paid politicians in Europe or the Americas. The cost of running Italy’s Quirinal Palace (where Pres. Mattarella and retinue live and work) is five times that of Buckingham Palace and twice that of the White House! For most Italians, politicians are not worth the money they get, especially in these times of diminishing returns. Something must be done to stop the gouging of taxpayers.
  3. Encourage the formation of a manageable two / three party system by rethinking voter districts, raising thresholds for winning seats in parliament and adopting a first-past the-post majority electoral system. The error is believing that more parties in Parliament equals more democracy. In the Italian case the proliferation of parties has brought nothing but confusion and hegemony often by parties representing but a majority only marginally superior to their own.
  4. Neutralize the Italian Magistrature’s bid for political power by constitutional amendment where possible and/or by making the Magistratura accessible to lawyers and Notaries in private practice; the present closed system does nobody any good; civil servants and bureaucrats become more responsive to the needs of society when challenged by competition from the private sector.  

 

All systems are self-preserving and naturally Italian politicians believe the answer lies not in the above suggestions but in going even more proportional (in efforts to stop the “populist right” from spoiling their well-remunerated fun). For the good of Italy and to make sure it is “never again” for the likes of Salvini.

 

Come Tuesday, August 27, should Mattarella not send everybody to the polls sometime this fall, Italians risk falling back into the hands of the old cold-war leadership that nearly bankrupted the Country. If that were allowed to happen, self-determination could become the North’s only option. Caveat emptor!

 

Filippo Brunelli
Nerdering
By Filippo Brunelli
L’opportunità dei Big Data

Nel 1997 esce il secondo libro della "Trilogia del Ponte" di William Gibson, Aidoru, dove è presente il personaggio di Colin Laney, un netrunner che ha la capacità di individuare i punti nodali in un insieme di dati casuali di informazioni. Apparentemente controcorrente in un momento nel quale i media davano internet per finito (nel 1997 avevano chiuso quasi 5 milioni di siti web) il libro di Gibson anticipava il futuro e, soprattutto, anticipava il concetto di Big Data e del poter estrapolare dati ordinati da un insieme di questi che appare caotico.

Cosa si intende per Big Data.
Ad oggi, ogni sessanta secondi, vengono generati più di 350.000 tweet, su facebook vengono caricate circa 243.000 immagini e 70.000 ore di video, su google sono fatte quasi 4 milioni di ricerche e 500 mila sono le app scaricate dai vari store. Tutto questo insieme di dati non va mai perso ma viene immagazzinato dai fornitori di servizi per essere analizzato e utilizzato; la combinazione del volume di dati e della velocità con la quale è generato prende il nome di Big Data.
Ma parlare di big data solo per trattare dei dati internet generati dagli utenti è limitativo, anche i navigatori satellitari generano dati che vengono inviati ad aziende private che li elaborano, i sensori delle automobili o delle case sempre più smart generano dati che vengono inviati ed analizzati dalle aziende. Abbiamo quindi, oltre che una grande quantità di dati inviati a grande velocità anche una grande varietà di essi che sono apparentemente disomogenei.
Non bisogna quindi confondere il concetto di Big Data con quello di database. Se un database tradizionale, infatti, può gestire tabelle magari composte di milioni di righe, ma al massimo su poche centinaia di colonne, quando parliamo di Big Data ci riferiamo a strumenti in grado di gestire lo stesso numero di record, ma con migliaia di colonne, dove i dati non sono strutturati in maniera omogenea come ad esempio meta dati, posizioni geografiche, valori rilevati da sensori e quasi sempre destrutturate.
Possiamo dire quindi che la definizione di Big Data è composta da tre "V": Volume di dati, Velocità con la quale sono generati e Varietà, di informazioni che apparentemente non vogliono dire nulla e che, soprattutto per la loro disomogeneità non sembrano avere correlazioni logiche nel modo di pensare classico ma la somma di queste tre V, come risultato, dà un'altra V: il Valore che è considerato l'aspetto più importante dei big data e che si riferisce al processo di individuazione di un elevato valore nascosto all'interno di un gran numero di dati (chiamato peso). Nell'analisi di questo tipo di dati è quindi fondamentale valutarne la veridicità e la qualità affinché possano effettivamente generare valore.

Quale utilizzo viene fatto dei dati?
Iniziamo subito a dire che questa grande quantità di informazioni in così poco tempo (parliamo solitamente di almeno un petabyte per arrivare a diversi yottabyte di dati) viene analizzata ed utilizzata in maniera differente a seconda dell'azienda o ente che se ne occupa. Tutti noi sappiamo l'uso che ne viene fatto nell'ambito del marketing da aziende quali Amazon o Google per il così detto "metodo della raccomandazione" per fare proposte di acquisto sulla base degli interessi di un cliente rispetto a quelli di milioni di altri: tutti i dati di un cliente, navigazione, ricerche, acquisti, eccetera, vengono analizzati e messi in relazione con quelli di milioni di altri utenti per cercare un modello di comportamento comune e suggerire un acquisto che solletichi l'interesse di chi sta navigando nel sito. Ma gli algoritmi non si limitano solo a questo: in base alle ricerche riescono a scoprire se, ad esempio, la persona che sta navigando in quel momento sia uomo o donna, se ha figli, animali domestici, nel caso, ad esempio, di una donna se è incinta e suggerirle, in questo caso, anche possibili acquisti per il futuro e/o coupon; il tutto apparentemente in maniera casuale. Anche le agenzie di carte di credito possono sfruttare le informazioni sugli acquisti che vengono fatti online per predire se un acquirente sia affidabile o meno: secondo alcune analisi, ad esempio, le persone che comprano i feltrini per i mobili rappresentano i clienti migliori per gli istituti di credito, perché più attenti e propensi a colmare i propri debiti nei tempi giusti. Quindi da un punto di vista del marketing puro l'analisi interpretativa dei dati è quella metodologia che dà valore ai big data tramite la quale le aziende possono trovare benefici come aumento delle vendite, miglior soddisfazione del cliente, maggiore efficienza, eccetera.
L'ambito di utilizzo dei Big Data, per fortuna, non si limita solamente al settore commerciale, ma può espandersi in una grandissima varietà di campi.
Un primo esempio che possiamo considerare è Ireact, il risultato di un progetto europeo triennale che ha sviluppato la prima piattaforma europea per integrare i dati di gestione delle emergenze provenienti da più fonti, tra cui quelli forniti dai cittadini attraverso i social media e il crowdsourcing1 .
Il sistema, come abbiamo detto, processa diverse fonti di informazioni come le immagini satellitari, le foto pubblicate dagli utenti sui social media, lo storico degli eventi accaduti in un determinato territorio, dati rilevati dai sensori dell'Internet of things, per poter aiutare a decidere quale strategia attuare in caso di calamità o di un evento catastrofico su un territorio e guidare in tempo reale le persone che prestano soccorso, creando nuove mappe mentre la situazione cambia, indicare quale azione operare in un determinato contesto, eccetera.
Nell'ambito della lotta alla criminalità l'utilizzo dei Big Data trova la sua attuazione nel programma Sirio al quale partecipano UNICRI, la Direzione Nazionale Antimafia ed il CERN e del quale l'Italia rappresenta uno dei principali partner per quanto riguarda l'elaborazione e la fornitura dei dati. Su Sidna, la piattaforma digitale del D.N.A., infatti, vengono memorizzati tutti i procedimenti antimafia e antiterrorismo italiani formando un database che contiene oltre due milioni di nominativi. Per fare un esempio Europol ne contiene solo 90.000 e Interpol 250.000. Ma a fare la differenza non è solo la quantità di dati presenti ma anche la qualità in quanto tutte le informazioni inserite provengono dalle direzioni distrettuali antimafia e quindi hanno un altissimo livello di attendibilità; le ultime 180 operazioni contro la criminalità organizzata nel nostro paese (dati relativi a marzo 2020) hanno avuto origine dall'analisi e l'incrocio dei Big Data. Alla base del processo che permette di trovare delle correlazioni tra i dati presenti in questo database vi sono gli strumenti di visual analytics ideati dal professor Daniel Kime dell'Università di Costanza; questi procedimenti combinano le informazioni semantiche specifiche del dominio di appartenenza con concetti astratti dei dati estratti e di visualizzarne i risultati sotto forma di reti. In questo modo possono emergere relazioni tra un mafioso ed un prestanome oppure tra un criminale ed il tipo di bene confiscato. Lo strumento che permette tutto questo si chiama Colaboration Spotting e, inizialmente, era nato per scopi scientifici mentre il suo uso, in questo campo, è quello di permettere alla Direzione Nazionale Antimafia di prevedere le future strategie criminali attraverso lo studio dei modelli organizzativi dei loro protagonisti.

Dagli algoritmi al deep learning
Nell'ambito scientifico l'utilizzo dei big data sta creando delle nuove opportunità ed anche degli scontri.
Secondo il fisico Chris Anderson la grande quantità di dati, combinata adeguatamente ad appropriate tecniche statistico-matematiche sarebbe in grado di soppiantare ogni altro strumento analitico, rendendo il metodo scientifico obsoleto. Anderson sostiene che nell'era del petabyte la correlazione possa sostituire la causalità e quindi dare la possibilità alla scienza di proseguire senza bisogno di modelli coerenti, teorie unificate o altre spiegazioni meccanicistiche: in pratica le congetture e le confutazioni saranno sostituite da "risposte" che emergeranno da sole dall'insieme di dati.
Se questo si realizzasse avremmo una nuova metodologia di ricerca che andrebbe ad aggiungersi a quelle già esistenti: il metodo sperimentale in vigore dai tempi di Galileo, il metodo matematico che ha permesso di analizzare la fisica quantistica e relativistica ed il metodo computazionale, che fa largo uso di simulazioni numeriche.
Affinché questa nuova metodologia possa svilupparsi i ricercatori fanno largo uso dell'apprendimento automatico, un metodo che utilizziamo normalmente tutti i giorni senza saperlo: gli assistenti vocali di Google, Amazon ed Apple, che hanno raggiunto livelli quasi umani di accuratezza, non fanno più uso di regole impartite da un programmatore, ma costruiscono in autonomia un modello del sistema che devono emulare attraverso l'analisi statistica di un ampio insieme di dati.
Anche se non utilizziamo gli assistenti vocali avremmo sicuramente utilizzato un chatbot che non è altro che un algoritmo capace di interloquire con una persona in modo sensato senza conoscere il significato delle parole o non capendo il significato del discorso ma solamente utilizzando milioni di conversazioni come esempi.
Gli algoritmi di deep learning, che si stanno facendo sempre più sofisticati, fanno viaggiare le informazioni verso una rete composta da milioni di nodi. Ogni nodo si accende in base a dei segnali che riceve dai vicini ed i segnali sono analizzati in base al "peso" (importanza) che hanno nella connessione dove viaggiano: una connessione con peso maggiore ha una probabilità maggiore di far cambiare lo stato del nodo dove arriva. Una volta identificati milioni di numeri viene creato un modello del problema (ad esempio in medicina permette di identificare un tumore in un insieme di pixel) e un programma è in grado di risolverlo, pur non sapendo nulla dell'ambito di sviluppo del problema (come i chatbot), il tutto tramite il deep learning e l'analisi dei Big Data.
Non tutti sono però d'accordo con queste idee. Il fisico Poincaré diceva "La scienza è fatta di dati come una casa è fatta di pietre. Ma un ammasso di dati non è scienza più di quanto un mucchio di pietre sia una casa". I dati, infatti, sono sì in grado di trasmettere contenuti ma i risultati possono essere influenzati dalla lettura che se ne dà e da come vengono correlati tra di loro. I modelli di apprendimento, ad oggi, indipendentemente dalla loro complessità, sono in grado di interpolazioni efficaci tra i dati analizzati ma l'estrapolazione di questi ultimi non supererà mai il loro livello di addestramento; secondo il matematico Edward R. Dougherty questi algoritmi non sono in grado di spiegare le correlazioni che trovano e distinguere tra falsi positivi e non, come la famosa ricerca che correlava i divorzi nel Maine ed il consumo di margarina tra il 2000 ed il 2009. Come esempio delle sue teorie Dougherty porta sempre la teoria generale della relatività, la quale non sarebbe mai potuta essere prodotta dall'estrapolazione dei Big Data solamente.

Quale presente e quale futuro?
Il nostro futuro passa anche dai big data e probabilmente i detrattori hanno in mente solamente l'utilizzo che ne viene fatto da parte delle grandi agenzie che lo utilizzano per il marketing, mentre pochi pensano che stanno nascendo delle nuove figure professionali specializzate nel settore come i Data Scientist, il Data Engineer o il Data Analyst e si prevede un mercato di 5 milioni di posti di lavoro in crescita.
Da un punto di vista puramente scientifico la possibilità di elaborare sempre più dati e sempre più velocemente creando associazioni porterà a "intelligenze artificiali" sempre più sofisticate che troveranno la loro collocazione nella vita di tutti i giorni. Pensiamo ad esempio alla difficoltà di un'auto a guida autonoma che deve decidere se un pupazzo di neve possa o meno attraversare la strada: la possibilità di comparare migliaia di informazioni che provengono dai sensori delle altre auto, compararli con migliaia di immagini presenti in rete e decidere che il pupazzo di neve non può attraversare la strada perché non è un uomo sarà possibile grazie ai Big Data.
Nel 2008 un progetto di Google permise di prevedere l'avanzamento dei focolari di influenza negli USA solamente analizzando i gruppi di termini cercati sul suo motore di ricerca più velocemente di quanto poté fare il ministero della salute analizzando i dati di immissione ospedaliera. Pensiamo a come potrebbe essere stato utile un utilizzo appropriato dei dati nell'analizzare l'evoluzione del COVID-19 nel mondo.
Certo rimane il problema di quanta privacy perdiamo ma a pensarci stiamo già rinunciando alla nostra privacy ogni volta che postiamo una foto o condividiamo un pensiero, quindi meglio perderla per avere dei vantaggi che perderla solo per avere della pubblicità in più.

 


Bibliografia:
Prisma N.17, marzo 2020, "I Big Data, contro il crimine organizzato", pp.38-41
Prisma N.3, dicembre 2018, "Big Data, come costruire modelli teorici in automatico?", pp.32-37
I-React, http://project.i-react.eu/
Youtube, 14 marzo 2018, conferenza "Elena Baralis, La nuova scienza dei dati: la sfida dei big data"
Youtube, Novembre 2014, "Analyzing and modeling complex and big data, Professor Maria Fasli, TEDxUniversityofEssex"

1 crowdsourcing è la richiesta di idee, suggerimenti, opinioni, rivolta agli utenti di Internet da un'azienda o da un privato in vista della realizzazione di un progetto o della soluzione di un problema.

 

C. Pelanda
Esodestini
By C. Pelanda
La relazione tra capitale e inizio della biocibernazione

E’ tempo per il capitale di valutare investimenti sulla biocibernetica o non ancora, in particolare su endo-protesi di potenziamento del cervello? L’avvento di un’Età della “biocibernazione” – nome creato da chi scrive negli anni ’80 - è stato profetizzato già da tempo. Nel 2000 Bill Joe, direttore scientifico di Sun Microsystems, scrisse: nel 2030 le tecnologie dell’informazione, bio e nano si fonderanno generando una speciazione post-umana. Ancor prima Kurzweil lanciò programmi di potenziamento tecnologico delle facoltà umane e di discontinuità evoluzionistica: la “singolarità”. Ma le aziende pronte a mettere sul mercato biochip cerebrali rinunciarono per timore di dissensi che avrebbero compromesso la capitalizzazione iniziale in Borsa. Così come Google interruppe, per problemi di vulnerabilità legale in materia di privacy, la vendita di occhiali costruiti come protesi di potenziamento delle funzioni visive-informative del cervello. L’intento dichiarato da Musk di costruire chip da impiantare nel cervello segnala che ora i tempi sono maturi?
Il potenziale tecnologico c’è. Nei sistemi autoritari la ricerca è più avanzata per l’assenza di problemi di consenso, ma è scarsa la vera libertà di impresa. L’innovazione, infatti, richiede o la guerra o una relazione amplificante tra libertà, tecnologia e capitale e in questi la prima non c’è. Nelle democrazie c’è, ma manca il consenso a causa del conflitto tra tecnica e morale. Chi scrive invocò un gizmo nella testa quando quattordicenne nel 1965 giocava a scacchi ad occhi bendati nel Caffè San Marco di Trieste, all’ombra della più grande sinagoga d’Europa. I limiti del cervello umano, forzati, erano evidenti e frustranti. Nell’evoluzione, infatti, ha avuto successo, finora, la cooperazione tra individui e non il supercervello illimitato. Tuttavia, la complessità crescente dei compiti cognitivi ha bisogno di un secondo cervello ausiliario, un “metagolem”. Ma ciò genera orrore nei più. A meno che non sia capace di salvare, disse allo scrivente un vecchio rabbi di passaggio. Tale battuta mostra la via: trasformazioni della configurazione umana naturale sono accettabili solo se chiaramente salvatrici. Per esempio, controllo di Alzheimer e Parkinson, ripristino di vista e udito, autoriparazioni in generale. In sintesi, si può ipotizzare che i biochip cerebrali possano ottenere consenso solo se chiaramente finalizzati a salvazioni mediche. A tale condizione l’investimento è valutabile in un orizzonte di 10-15 anni. Aperta questa porta poi, come accade da secoli, la morale si adeguerà alla tecnica.

Gallery & Media
 
Lombardi Pelanda
Matteo M.F. Sommaruga
On the other side of Berlin Wall
By Matteo M.F. Sommaruga
An excursion to the mountains

To the early and less enduring snow of late autumn, that year followed abundant precipitations that soon covered with a white mantle the mountains around Munich. It could have been the landscape printed on a Christmas card or the atmosphere depicted by Thomas Mann in many of his novels. Perhaps even Hitler would have taken inspiration for a watercolour. It could have for sure promoted the sale of the frame, although soon to be replaced with some work of better quality. I was getting stressed on the workplace, because of the requests I received by the far too many stakeholders I had interaction with. By the tone and the feasibility of the targets, they also reminded me of Hitler, while shouting unintelligible orders to his generals. They also had the tune of a DDR hymn, so deeply impregnated by optimistic propaganda. We will complete the plan within the next five days, employing a team of four people, two of which on vacation and the other two new hires who have not already received their laptops. Of course I had to be stressed, but I had also to consider that I was paid because of my well renown soft skills, i.e. negotiation and stress management. I actually felt quite unprepared with both of them, but that was not what I wrote on my resumée under the direct supervision of my career advisor. On a wednesday night, after having got home at 1 a.m. because of an extenuating meeting with the whole management of my area, I decided to break the piggy bank and take part to a guided tour on the snowshoes. The local section of the DAV, the German Alpine Club, organized many excursions during the week ends. Unfortunately most of trips were often cancelled due to the most disparate reasons. It was so frustrating that I had already abandoned the idea to become a proficient mountaineer. I had however to try. My good friend Cristoph was away for a long mission related to his job and I also had enough to spend most of my time reading on the web edition of the local newspapers alarming reports about the presence of radical Islam in Bavaria. If I had been a young Pioneer in the DDR times, my supervisors would have for sure approved
such a proof of bravery defying the decadent entertainment of the Western countries. Actually, without a good income, I would have ever hardly been available to buy the necessary equipment and the efficiency of the Warsaw Pact would have made the roads to the mountains quite impracticable if not for an highly sophisticated military vehicle. Perhaps available only to the NATO. I did not want to take care of the opinion of high paid professionals, but just to stay away from the town for a short while. I prepared my backpack carefully, not to be stuck in an unknown place without the essential equipment. Relying on technology, it was not necessary to carry a voluminous luggage. The iPad is good enough to contain all the entertainment I need for several years. While selecting the food and handling a pocket of dried fruit, I realised how such a tendency to condense all the necessary resources for survival has started centuries ago. A long road to innovation, should add the commentary of a boring video on the human evolution. I also felt that my thought lack of ingenuousness. Perhaps I was not reading intensively enough and I was looking for new ideas. Like those you easily pick up from the best renowned magazines and, by quoting, you can easily assert to belong to a restricted elite of intellectuals. I also doubted whether I should acquire my information from alternative resources. The only conclusion was to adhere to any plot theory available on the web. I then realized how honest intellectuals should have felt under the DDR. The choice to believe to the carefully manipulated scientific publications of the University of Lipsia or the option to nourish your brain with not verified notions, partially developed by the mind of an uneducated political prisoner. For the following two days, in the comfort of a wooden building, immersed in a white world, I made a truce with my troubles.

G. Vatinno
Futurizing
By G. Vatinno
Il tempo nella teoria della relativita'

Il Signore è sottile, ma non malizioso (Albert Einstein)

INTRODUZIONE
Prendo lo spunto dal mio libro da poco pubblicato Storia naturale del Tempo.L’Effetto Einstein e la Fisica del futuro  per offrire al lettore alcune considerazioni su un concetto solo apparentemente semplice ed intuitivo. La storia del concetto di  “tempo” è particolare, divisa com’è tra la Fisica e la Filosofia, per non parlare poi della Religione e delle inevitabili citazioni di Sant’ Agostino (che opportunamente evito). Tempo (e spazio) sono esperienze basiche per l’Uomo. Premetto che in questo articolo parlerò esplicitamente del “tempo”, ma che, trattandosi di concetti strettamente correlati, è sempre sottinteso che esiste un’analoga trattazione per lo “spazio”. Considerando poi che utilizzeremo principalmente concetti relativistici ogni qualvolta parlo di tempo occorre intendere lo “spaziotempo”.Ma cos’è il tempo?
Il tempo, intuitivamente è legato a qualche forma di “cambiamento” non strettamente spaziale; anzi potremmo definirlo come la misura di un “cambiamento continuo” e secondo la filosofia senza cambiamento non c’è neppure  tempo.Ma cambiamento di cosa? Cambiamento della posizione del sole e delle stelle, della luna, delle stagioni o, in maniera più raffinata, del proprio stato psicologico, del proprio sentire? Queste considerazioni ci portano naturalmente ad una prima distinzione tra “tempo oggettivo” che è possibile misurare strumentalmente ed è uguale per tutti gli osservatori e un “tempo soggettivo”, che, per sua definizione, non è misurabile (ma confrontabile). In questo articolo vogliamo occuparci più propriamente del tempo oggettivo, cioè di quello che utilizza la scienza.
I modi per misurare il tempo, eventi astronomici, clessidre, meridiane, orologi fanno parte della storia della tecnologia.Per quanto riguarda invece la Fisica il discorso è più complesso perché una vera “Fisica temporale” nasce , in senso moderno,solo con i primi esperimenti e quindi  se si eccettua qualche eccezione greca, con Galileo Galilei.Allora si comincia ad avvertire la necessità di quantificare esattamente il tempo non solo a fini sociali, ma anche appunto più propriamente scientifici e quindi con una maggiore rigorosità.Ad esempio, la nozione di velocità vista come il cambiamento dello spazio rispetto al tempo (e in seguito quella di accelerazione vista come il cambiamento della velocità rispetto al tempo) apre la strada a questa nuova concezione. A ben considerare è proprio l’analisi differenziale di Newton e Leibnitz che propone quello che diverrà poi un vero e proprio paradigma: una visione della Fisica in cui il tempo è  il parametro privilegiato di riferimento a cui rapportare la variazione delle altre grandezze fisiche coinvolte nella descrizione di un fenomeno
 .
Infatti la seconda equazione di Newton, la celeberrima
(1)F = MA
permette di determinare istante per istante la posizione di un corpo di massa M sottoposto ad una accelerazione A una volta nota la forza F e le sue condizioni iniziali. In pratica potremmo dire che tutta la Fisica dal XVII secolo in poi è basata sul concetto di tempo anche se, ad esempio, per l’equazionecosmologico-quantistica di Wheeler-DeWitt (o WdW) si è parlato di “fine del tempo” e possibilità di descrivere una fenomenologia senza ricorrere (almeno esplicitamente) a tale parametro.Ma torniamo al tempo classicamente inteso.Una volta instauratosi nella Fisica grazie a Galilei e a Newton il nostro parametro si rafforzò viepiù nei secoli successivi divenendo uno dei punti fermi della descrizione fisico-matematica dei fenomeni.Infatti, come già accennato,tutto il settecento e l’ottocento è un fiorire di equazioni differenziali ordinarie e alla derivate parziali che lo vedono da protagonista (quasi) solitario.Il tempo è anche il parametro fondamentale (rispetto a cui variano il campo elettrico e magnetico) delle equazioni di Maxwell.E così giungiamo al XX secolo.Questo secolo risulterà, come noto, assolutamente innovativo per la nostra concezione dell’Universo.Infatti, proprio al suo inizio, fanno la loro comparsa due teorie che rivoluzioneranno non la sola Fisica, ma l’intera scienza e anche il modo di pensare in generale della società: la Teoria della Relatività Ristretta (RR), la Teoria della Relatività Generale (RG) e la Meccanica Quantistica (MQ). Per quanto riguarda il tempo la MQ lo vede come un paramentodi evoluzione di un sistema,  importante  ma non così determinante come è invece nella Fisica newtoniana; infatti per l’equazione di Schrödingerè più importante conoscere gli auto-valori dell’energia che la sua evoluzione temporale. Completamente diverso è il caso delle Relatività: infatti in esse il tempo cessa di essere solo un parametro evolutivo per divenire il centro dell’interesse stesso della teoria.Possiamo dire,  che con le teorie di Einstein, il tempo diviene attore primario della Fisica non solo come parametro evolutivo , ma anche come “oggetto” del sapere stesso (e quindi acquisisce una dimensione filosofica ontologica, ma supportata da elementi quantitativi). Come noto, a partire dalla RR del 1905 lo spazio e il tempo smettono di essere enti separati per divenire un concetto unificato: lo spaziotempo (senza trattino) che compie il “miracolo” di unire grandezze che fino ad allora erano state considerate come completamente separate. Lo spaziotempo fa il suo ingresso nella RR ed è il portato matematico delle equazioni di trasformazione di Lorentz che “mischiano” appunto sia il tempo che lo spazio in un tutto unico.Lo spaziotempo della RR è, come noto, “piatto” o pseudo-euclideo (l’aggettivo pseudo è riferito alla distanza non definita positiva nello spaziotempo di minkowski) mentre lo spaziotempo della RG, completata nel 1915, è “curvo” (ed è incurvato, sostanzialmente, dall’energia/massa).
Il fatto di aver promosso, nelle Relatività,  lo spaziotempo a protagonista della Fisica apre scenari assai interessanti ed intriganti.Come il moto è “relativo” anche il tempo e lo spazio sono relativi e quindi cessano di essere concetti “assoluti” come li considerava Newton e tutta la Fisica fino ai primi anni del novecento.E se sono concetti relativi possono avere valori diversi a seconda dei diversi osservatori, in moto, in “quiete”, accelerati o sottoposti ad un campo gravitazionale. Dunque questo apre la strada ad un filone che inizialmente fu guardato con sospetto dai fisici professionisti: quello dei “viaggi nel tempo”.Ormai, dopo che se ne sono occupati fisici del valore riconosciuto come Kip Thorne, Roger Penrose, Paul Davies e (anche se criticamente) Stephen Hawking la materia pare definitivamente sdoganata.Infatti è sperimentalmente noto che il tempo “rallenta” per un osservatore in moto rettilineo uniforme rispetto ad un altro (ma la cosa è reciproca!) e che il tempo rallenta per  chi si trova immerso in un campo gravitazionale. Da notare come l’effetto sia reciproco in RR –tra i due osservatori inerziali-, cioè per tutti e due il tempo rallenta, ma non lo sia in RG dove per l’osservatore in un campo gravitazionale il tempo rallenta (rispetto a quello esterno), ma per quello esterno il suo tempo accelera. In questo articolo dunque ci occuperemo solo del tempo relativistico; tuttavia, in Fisica, esiste un altro interessante modo di studiarlo (e definirlo) e cioè quello della termodinamica e della “freccia del tempo” indicata dal Secondo Principio e quindi dall’aumento dell’entropia.
IL TEMPO NELLA TEORIA DELLA RELATIVITA’ RISTRETTA
Nella RR il tempo scorre diversamente per due osservatori inerziali in moto uno rispetto all’altro. Come già detto, proprio l’essenza stessa della Relatività impone che tale fenomeno sia reciproco e simmetrico.L’osservatore considerato in moto (ripetiamo che si tratta sempre di una scelta di pura convenzione) avrà sempre un tempo che scorre più lentamente e precisamente:
(2):::Desktop:785822ad0d53c17c04fd8f1008b38743.png

Dove Δt è l’intervallo di tempo misurato nel Sistema di Riferimento in cui è l’orologio è in quiete (tempo proprio)  e Δt' è l’intervallo di tempo misurato nel Sistema di Riferimento in cui l’orologio si muove con velocità v. Dunque risulta che in OGNI Sistema di riferimento il tempo “scorre più lentamente” perché il fattore gamma per v < c è sempre maggiore di 1 e quindi Δt' > Δt (la durata è maggiore).
IL TEMPO IN RELATIVITA’ GENERALE
La RG nasce per ampliare a tutti gli osservatori (anche a quelli in moto accelerato e non solo rettilineo uniforme, come avviene in RR) l’invarianza delle leggi della Fisica.Facendo questo lo spaziotempo pseudoeuclideo della RR diviene una varietà di Riemann curva.Lo strumento matematico atto a studiare tale geometria (differenziale) è il calcolo differenziale assoluto di Levi-Civita e Ricci-Curbastro.Applicando tali strumenti Einstein (ed Hilbert che però gli riconobbe la primogenitura) giunge a scrivere le famose equazioni di campo  che sono:

(3)image
ove:
image è il tensore di curvatura di Ricci, image è un numero detto curvatura scalare,  image è il tensore metrico (che servirà poi, una volta sostituito nelle equazioni del moto a determinare la dinamica), image è un termine chiamato “costante cosmologica” è che fu introdotto e poi tolto (ed oggi rimesso) nelle equazioni di campo da Einstein per ottenere un Universo in equilibrio,  image è il tensore energia-impulso, c la velocità della luce e G la costante di Newton, π è il rapporto tra la lunghezza della circonferenza e il diametro.
Le (3), dal punto di vista puramente matematico, rappresentano un Sistema di equazioni differenziali alle derivate parziali, non lineari, nelle componenti del Sistema metrico image e in 4 variabili indipendenti (x,y,z,t).Poiché si può scegliere, senza perdere di generalità, il tensore metrico in modo che sia simmetrico, delle 16 componenti originali (4X4) ne restano solo 10 indipendenti-
Una volta trovate le funzioni incognite occorre risolvere le equazioni del moto che sono date dalle geodetiche della varietà di Riemann e cioè:
image
(4)
dove:
le x sono le coordinate del punto in moto e le quantità Γ sono legate proprio ai valori della metrica  imagedeterminata dalle equazioni (3).
In RG si possono utilizzare diverse formule per calcolare le dilatazioni temporali.Esaminiamo diversi casi:
I) Per un osservatore in moto accelerato uniforme (che, grazie al Principio di equivalenza) è identico ad un campo gravitazionale localmente uniforme) si ha:
(5)image
dove g è l’accelerazione (costante), h è la distanza tra un osservatore accelerato (o in un campo gravitazionale equivalente) e un osservatore in quiete (o in assenza di campo gravitazionale), c la velocità della luce.Quindi per un osservatore in moto accelerato (o in un campo gravitazionale) il tempo rallenta mentre, viceversa, per un osservatore in quiete (o in assenza di campo gravitazionale), il tempo accelera.
II) Nel caso invece gravitazionale di una massa m non rotante e di raggio r, utilizzando la metrica di Schwarzchild, si ha:
(6) IMAGE
dove t’ è il tempo misurato all’interno del campo gravitazionale (“tempo proprio”), t è il tempo misurato all’esterno del campo gravitazionale, r la distanza dal centro di massa, m la massa che genera il campo gravitazionale, c la velocità della luce nel vuoto e G la costante di gravità.

 

 

La (6)  sviluppata al primo ordine dà:

 

(7)IMAGE

dove IMAGE è il cosiddetto raggio di Schwarzchild
Nel caso della (7) la formula non è “invertibile” tra i due osservatori, interno ed esterno al campo gravitazionale, come è invece la (2).
Naturalmente anche le lunghezze sono contratte sia in RR che in RG e precisamente valgono le:
(8a)image

 

(8b)IMAGE

CONSIDERAZIONI GENERALE SULLA DILATAZIONE TEMPORALEE SULLA CONTRAZIONE SPAZIALE
Occorre soffermarsi su un altro punto della questione; la dilatazione temporale in RR è , in un certo senso, meno intuitiva da capire di quella in RG. Infatti, in RR la contrazione ha natura sostanzialmente cinematica, mentre in RG si tratta di una vera e propria deformazione geometrica dello spaziotempo. Dunque si tende a capire più facilmente il fatto che le masse contraggano lo spazio e dilatino il tempo proprio perché è la struttura geometrica stessa che subisce deformazioni cosa che non è altrettanto evidente in RR.
I VIAGGI NEL TEMPO
I viaggi nel tempo sono un tema molto di frontiera della fisica contemporanea e –possiamo dirlo-sdoganati da poco grazie all’interesse di fisici molto influenti come Stephen Hawking, Kip Thorne, Paul Davies,Roger Penrose (per citare i più rilevanti) anche se un esempio matematico completo fu scoperto nel 1949 dal logico Kurt Gödel .Tale possibilità deriva proprio dal fatto che grazie alle formule precedenti la durata temporale degli osservatori in moto e sottoposti alla gravità sono differenti da chi non  le sperimenta.La RR permette viaggi nel futuro (tralasciamo le possibilità teoriche di comunicare con i tachioni) mentre la RG permette viaggi nel passato e nel futuro (nel caso di loopspazio–temporale in cui però si può tornare indietro nel tempo fin solo al momento della creazione della macchina oppure al momento della creazione naturale del loop; questo, curiosamente, segna anche una differenza rilevante tra la possibilità di accedere ad un futuro virtualmente illimitato ed un passato invece limitato).I viaggi nel tempo dunque sono teoricamente possibili, ma restano da esaminare due aspetti di essi; il primo è la generazione di paradossi quando si ammette la possibilità di tornare/comunicare col passato e la seconda è la fattibilità tecnologica di questi viaggi. La problematica tecnica è solo una questione di tempo e risorse mentre quella dei paradossi è particolarmente complessa. Il paradosso principale che sorge è chiamato “paradosso del nonno”.Un crononauta torna nel passato e uccide suo nonno.Ma se lo uccide non può essere nato e neppure tornato ad ucciderlo.Spiegazioni proposte sono principalmente due.La prima fa ricorso alla MQ e specificatamente alla Interpretazione a Molti Mondi di Hugh Everett III; quando il viaggiatore del tempo uccide il nonno l’universo si separa in due storie: in una il nonno è effettivamente ucciso e nell’altra no.Dunque il viaggiatore si troverà nel secondo universo e non ci saranno contraddizioni logiche.La seconda spiegazione è il principio di autoconsistenza di Novikov; il crononauta torna nel passato tenta di uccidere il nonno, ma un passante si frappone e rimane ucciso al posto suo.Il “nipote” ricorda che il nonno gli narrò questa esperienza e come un passante gli abbia involontariamente salvato la vita.
CONCLUSIONI
Il tempo forse ancor più dello spazio ha sicuramente un fascino particolare per l’Uomo; la Relatività ci ha mostrato che esso non è immutabile, ma che anzi esso può essere alterato utilizzando la velocità, l’accelerazione o la gravità cioè grandezze fisiche ben note. La logica e la Meccanica Quantistica ci offrono anche delle possibili soluzioni ai paradossi che inevitabilmente si generano in queste situazioni. La tecnologia in un lontano futuro forse potrà costruire macchine che realizzino questo antico sogno dell’Uomo: il controllo del tempo.
BIBLIOGRAFIA
Davies P., Come costruire una macchina del tempo, Mondadori, Milano. 2003.
Dorato M., Che cos’è il tempo? Einstein, Gödel e l’esperienza comune, Carocci editore, Roma, 2013.
Haidegger M., Essere e Tempo, Longanesi, Milano, 2005. 
Hawking S., Penrose R., La natura dello Spazio e del Tempo.Come capire l’incomprensibile., Biblioteca Scientifica Sansoni, Milano, 1996.
Orilia F., Filosofia del tempo.Il dibattito contemporaneo, Carocci editore, Roma, 2012.
Thorne K., Buchi neri e salti temporali.L’eredità di Einstein, Castelvecchi, Roma, 2013.
Vatinno G., Il Nulla e il Tutto.Le meraviglie del possibile, Armando Editore, Roma, 2012.
Vatinno G., Storia naturale del Tempo.L’Effetto Einstein e la Fisica del futuro, Armando Editore, Roma, 2014.

Questo è vero per le equazioni differenziali ordinarie della dinamica newtoniana (corredate di condizioni iniziali), ma anche per le equazione alle derivate parziali (corredate di condizioni al contorno) della conduzione del calore e delle onde, che coinvolgono contemporaneamente le variabili spaziali e temporali.

In realtà il tempo c’è ma è “nascosto”; infatti, il funzionale d’onda non contiene esplicitamente il tempo in una geometria dello spaziotempo “congelata”, ma il tempo stesso compare appena ci si chiede quale sia la probabilità di trovare un’altra geometria a partire da quella iniziale.

Risolvendo le equazioni di campo di Einstein per un sistema fisico rappresentato da un fluido perfetto rotante con una velocità costante Gödel trovò una particolare metrica che genera delle strutture chiamate CTC (Closed Timelike Curve) che permettono di raggiungere zone del passato semplicemente spostandosi su traiettorie spaziali.

L. Borgiani
Savage Light
By L. Borgiani
Luminescence - Light trace

IMG

Lumen In the Lumen series various aspects of light are explored in separate bodies of work. The aim is to let light reveal itself. The first body of work (Luminescence) primarily investigates light using electroluminescent (EL) wire. A current is passed through a copper wire causing the surrounding phosphor coating to emit light. The wire was wrapped around/within custom-made costumes worn by the model. The model's movements were then recorded, introducing a kinetic element. Images were also made using opaque and transparent mannequins. The second gallery (Light Trace 光 のトレース) results from a two day collaboration with Tokyo-based light artist/ fashion designer, Erina Kashihara. Light emitted from within clothing and accessories combined with directed movements clothe the model within traces of light. Michael is currently working on thousands of light images for future exhibitions. He welcomes collaboration with all artists working with light.

Luminescence La prima serie di fotografie si concentra principalmente sulla luminescenza. Questa serie fotografica osserva la luce soprattutto attraverso un filo elettroluminescente (EL wire). La corrente passa attraverso un filo di rame ricoperto di fosforo e provoca l'emissione di radiazioni luminose. Questo filo è stato incorporato in una serie di costumi realizzati per l'occasione e indossati da una modella. I movimenti della modella sono stati poi fotografati, introducendo così un elemento dinamico. Altre immagini sono state create usando manichini opachi e trasparenti. Light trace -Il materiale è il frutto di una collaborazione durata due giorni (novembre scorso a Londra) con la stilista e artista di luci Erina Kashihara che vive a Tokyo. IMGOgnuna delle sei opere della Light Mode Art di Erina è accompagnata da una fotografia statica seguita a sua volta da una serie d'immagini di giochi dinamici di luci. La luce diventa il filo conduttore tra arte e moda.

More info: LIGHT FOR ART

Website: www.michaeltaylorphoto.com

L. Rossi
Piano Tuning
By L. Rossi
Memories and Light

 

The work of Lisa Borgiani “Memories and Light” is a musical video trip around various capitals in the mid-east (Jerusalem, Istanbul, Teheran).
From here the idea to compose original music on the instant, developing and searching in the most ancient traditions a sense of continuity but mostly of newness. Light, symbol of union and hope, is the protagonist of our trip.

Il lavorodi Lisa Borgiani "Memories and Light" è un viaggio video musicale attraverso alcune città del medioriente (Gerusalemme, Istanbul e Teheran).
Da qui l'idea di comporre istantaneamente musiche totalmente originali con influenze mediorientali, sviluppando e ricercando nelle tradizioni più antiche un senso di continuità ma anche di novità.
La Luce, simbolo di unione e speranza, è protagonista di questo nostro viaggio.

BIOGRAPHY

I was born in Perugia in 1987 where I have studied piano at the public school of music in Castiglione del Lago for one year. The collaboration with the music master Mauro Grossi from Livorno me into the wide environment of armony and improvisation for four years. In 2011 I won the Prize "intuizione e ispirazione, dolci melodie nell'aria". I did various concerts in Livorno, Castiglione del Lgo, Città della Pieve and Chianciano. For many years I have been working with the artist Lisa Borgiani at the music devolopment of her projects. I have studied jazz, gradually changing from the popular origin of american music to the discovery of the rural european musical charachter. From the balcan music (Romania, Serbia, Bosnia, Zigana in their different varying) to the portugues music (fado), irish and scottish, developing my passion for the mittle-european jewish music (yiddish) and middle-east after in its different music shapes.

Sono nato il 10 gennaio 1987 a Perugia e ho iniziato lo studio del pianoforte presso la Scuola di musica comunale di Castiglione del Lago proseguendo per un anno. 
L'incontro con il maestro Mauro Grossi di Livorno mi ha guidato per 4 anni nel vasto ambito dell'improvvisazione e dell'armonia. 
Nel 2011 ho vinto il concorso "intuizione e ispirazione, dolci melodie nell'aria".
Ho tenuto concerti a Livorno, Castiglione del Lago, Città della Pieve e Chianciano. 
Da tempo collaboro con l'artista Lisa Borgiani per lo sviluppo musicale dei suoi progetti.
Studioso di jazz, sono passato gradualmente dalle origini popolari della stessa musica americana fino alla scoperta dei vari caratteri musicali rurali europei. 
Dalla musica balcanica (romena, serba, bosniaca, zigana nelle sue varianti territoriali) alla musica portoghese (fado), irlandese, scozzese, italiana (pizzica, taranta, canti popolari), spagnola e russa, approfondendo in particolar modo la musica ebraica mitteleuropea (yiddish) esuccessivamente la musica mediorientale nelle sue varie forme musicali.

lorenzorossi1987@gmail.com

Follow me on fb
Follow me on fb (2)

You Tube

© The Unedited
contacts: info@theunedited.com
Vat:03983070230