Dopo che il Garante della Privacy ha aperto un’istruttoria su ChatGPT, di fatto bloccandola temporaneamente nel nostro paese, quello che prima era un tool di AI1 riservato a pochi appassionati è diventato un argomento di “cultura generale” dove chiunque può esprimere la propria opinione.
A dare adito alle preoccupazioni riguardo questa tecnologia si sono inseriti nel dibattito anche persone di autorevolezza come l'ex presidente dell'Agenzia spaziale italiana Roberto Battiston o il cofondatore di Neuralink e OpenAI Elon Musk (nonché direttore tecnico di SpaceX, amministratore delegato di Tesla, ecc).
Ma sono davvero fondate queste preoccupazioni?
Vediamo di fare un po’ di luce sulla situazione e soprattutto se solo ChatCPT è pericolosa o anche le altre AI.
Cos’è un’intelligenza artificiale?
Già nel 1950 sulla rivista Mind il grande matematico Alan Turing nell'articolo “Computing machinery and intelligence” ideò un test per determinare se una macchina sia in grado di esibire un comportamento intelligente (vedi articolo “È Stato Superato Il Test Di Turing?” su questo stesso sito). Questo fu il primo tentativo per avvicinarsi al concetto di intelligenza artificiale. In realtà il concetto di AI al giorno d’oggi si è evoluto in una tecnologia che consente di simulare i processi dell’intelligenza umana tramite programmi in grado di pensare e agire come gli esseri umani. Per ottenere tutto questo sono necessari principalmente 2 fattori: grandi capacità d calcolo e un enorme molte di dati sui quali gli algoritmi possano crescere.
Se per il primo requisito gli ostacoli sono stati facilmente superabili per il secondo fino all’avvento di internet e dei social network (ma soprattutto fino alla loro massificazione) le cose erano più complicate in quanto si necessitava di raccogliere dati da varie fonti che spesso non comunicavano tra loro e inserirli negli algoritmi; ma, come appena scritto, grazie a questi due strumenti le aziende che sviluppano Intelligenza Artificiale hanno potuto accedere quantità enormi di informazioni eterogenee che hanno dato lo slancio alla creazione una nuova tecnologia.
Già negli ultimi 10 anni si è assistito ad un lento sviluppo delle AI anche se non ci siamo mai soffermati a rifletterci: quando usiamo le auto con la guida autonoma o semi-autonoma usiamo programmi di AI, così come quando interagiamo con un Chatbot2 e o utilizziamo software per riconoscere piante o persone tramite la telecamera del nostro smartphone o tablet oppure semplicemente utilizziamo un assistente vocale quali Siri o Cortana.
Cos’è ChatGPT?
Ma cosa rende questa AI diversa delle altre e perché?
Innanzitutto chiariamo che lo scopo di ChatGPT è quello di rendere l’interazione con i sistemi di intelligenza artificiale più naturale e intuitiva, infatti GPT sta per Generative Pretrained Transformer (traducibile grossolanamente in “trasformatore pre-istruito e generatore di conversazioni”), ovvero un modello di linguaggio che utilizza il Deep Learning3 per produrre testi simili in tutto e per tutto a quelli che scriverebbe un essere umano: quando un utente inserisce un messaggio, Chat GPT elabora l'input e genera una risposta pertinente e coerente all’interno della conversazione.
Ma se quello che facesse questa AI fosse solo rispondere alle domande degli utenti in maniera simile a quella di un essere umano saremmo davanti a niente più di un chatbot evoluto. In realtà quello che ChatGPT fa e sta imparando a fare è molto più articolato: permette di scrivere testi più o meno lunghi (temi, tesi, libricini, ecc.), permette di scrivere programmi senza quasi aver alcuna conoscenza di linguaggi di programmazione piuttosto che una canzone, una poesia o anche una sceneggiatura cinematografica inoltre è anche in grado di dare consigli su viaggi o di qualsiasi altra cosa e, come un vero essere umano, a volte può anche sbagliare nelle risposte o nei compiti assegnati.
Per usare ChatGPT è sufficiente collegarsi a OpenAi.com e poi attivare gratuitamente un account. Sfortunatamente da qualche settimana questo non è più possibile per noi utenti italiani senza una VPN.
Non esiste solo ChatGPT?
Sebbene famosa questa AI non è la sola presente sul mercato. Anche altre aziende oltre OpenAi stanno sviluppando (o anno già sviluppato) sistemi analoghi.
BingAi, sviluppato da Miscrosoft (che è stato uno dei finanziatori più generosi di OpenAi) è stato integrato nell’omonimo motore di ricerca della società di Redmond che si pone come obbiettivo di dare risposte, ma non solo: se ad esempio ci colleghiamo alla sezione “create” (https://www.bing.com/create) possiamo far creare a BingAi un immaigne partendo da una nostra descrizione (solo in inglese per ora). BingAi utilizza lo stesso motore di GPT.
Google Bard è, invece, l’alternativa proposta da BigG. Questo strumento di AI per il momento è ancora in fase di sviluppo nelle prime fasi non ha entusiasmato più di tanto e i risultati delle sue integrazioni sono risultati inferiori come qualità a quelle presentata dai concorrenti. Il CEO di Google, Sundar Picha, non sembra particolarmente preoccupato di questo e afferma che Brad passerà presto dal modello LaMDA (Language Model for Dialogue Applications) a PaLM (Pathways Language Model) in quanto il modello attuale è “addestrato” da solamente 137 miliardi di parametri, contro i 540 miliardi di parametri di PaLM.
Quando Bard sarà attivo in maniera completa cambierà soprattutto il modo nel quale vengono presentate le ricerche da Google e, probabilmente, il motore di ricerca più utilizzato al mondo diventerà più attento nella qualità delle pagine indicizzate e proposte; o almeno questo è l’intento di Google.
IBM Watson è l’intelligenza artificiale sviluppata, appunto da IBM dal 2010 che nel 2013 ha avuto la prima applicazione commerciale ovvero la gestione delle decisioni nel trattamento del cancro ai polmoni al Memorial Sloan-Kettering Cancer Center. A differenza dei suoi antagonisti sopra citati Watson si propone ad un pubblico business: il sistema è in grado di analizzare ed interpretare i dati, testi non strutturati, immagini, dati audio e video e, grazie all'intelligenza artificiale, il software riconosce la personalità, il tono e l'umore dell'utente.
Perché fa paura l’evoluzione delle AI?
Le intelligenze artificiali, da come abbiamo visto fino ad ora, sembrano essere una panacea per l’aiuto nel lavoro di tutti i giorni, ma presentano anche dei lati oscuri che non sono però gli scenari apocalittici rappresentati da tanti film di fantascienza quali Matrix, Terminator, eccetera.
Così come sono in grado di creare immagini dal nulla con semplicemente delle spiegazioni, altrettanto possono creare dei falsi video o foto per generare disinformazione. Già nel 2019 Samsung ha sviluppato un sistema, basato sull'intelligenza artificiale, capace di creare finti video da una o due fotografie e, negli ultimi mesi del 2022 , sempre più video falsi realizzati con lo scopo di mostrare le capacità delle AI nel generare contenuti, sono stati messi in rete.
Certo, si obbietterà, che la produzione di video "fake" non è nuova, ma quello che cambia adesso è che, se fino a ora erano necessarie grandi quantità di dati e competenza e un’ occhio allenato poteva notare la differenza tra reale e no adesso, con le AI si possono costruire movimenti del viso e della bocca che non sono mai esistiti e che sembrano reali.
Quindi se la manipolazione delle immagini (o dei suoni) tramite AI può dare vita a meme innocui, oppure semplificare la vita di animatori e sviluppatori di videogiochi bisogna prestare attenzione ad un possibile utilizzo illegale o atto a disinformare l’opinione pubblica o discreditare chiunque.
Pensate: cosa fareste se un giorno vi trovaste a vedere un video su Facebook di voi che state facendo una rapina in banca e questo video sarebbe tanto dettagliato da sembrare reale?
Ma non si tratta solo della capacità di creare fave video. Le IA come ChatGPT possono anche creare commenti e di auto-evolversi.
Queste capacità di auto-evolversi sono state uno dei motivi che hanno portato Musk con altri mille esperti a chiedere una moratoria di sei mesi all'addestramento delle Intelligenze artificiali (non solo ChatGPT) attraverso una lettera aperta (sotto forma di petizione) indirizzata ai governi e, soprattutto, alle aziende che in questi hanno aumentato la ricerca allo sviluppo di queste tecnologie. In questa petizione, pubblicata sul sito Futureoflife.org, imprenditori e accademici chiedono una moratoria sull'uso delle AI fino alla creazione di sistemi di sicurezza. Il rischio più grande non è che le intelligenze artificiali possano scatenare una guerra contro l’umanità ma che si mettano a “fare cose” senza un motivo a noi apparente o che “imparino cose sbagliate”.
In Italia il Garante per la Privacy ha bloccato momentaneamente ChatGPT in attesa sul chiarimento su come vengono trattati i dati personali degli utenti. Una motivazione forse banale ma che ha portato ad un blocco (unico per adesso in Europa) della tecnologia di OpenAi. In particolare il Garante rileva “la mancanza di una informativa (come quelle presenti nei normali siti web) agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI”. Inoltre, sottolinea sempre il Garante c’è “l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma”, che si può tradurre come: “Non c’è un motivo per utilizzare i dati personali delle persone per insegnare al vostro software!”.
Mentre in Italia si attua un blocco momentaneo a CathGPT in attesa di delucidazioni sull’uso dei dati personali, in Europa molti paese (come Germani, Francia) chiedono delucidazioni all’Italia per questa sua decisione e nella Commissione Europea si discute se e come regolarizzare le Intelligenze Artificiali.
Quale futuro?
Di sicuro l’evoluzione dell’intelligenza artificiale rappresenta per l’informatica quello che l’energia nucleare ha rappresentato nel mondo della fisica e, proprio come l’energia nucleare, può rappresentare sia un’utilità che un mezzo di distruzione. Intanto si stanno delineando nuove opportunità nel mondo del lavoro per chi sa utilizzare e programmare le AI e nuove professioni stanno nascendo come ad esempio il prompt expert4 che negli Stati Uniti può arrivare a guadagnare da 70.000 a 140.000 dollari all’anno.
Da tutto questo l’Italia rischia, per adesso, di rimanere esclusa.
Se la decisione del Garante sia giusta o meno non lo sappiamo e lo sapremo in futuro, ma per adesso, se vogliamo utilizzare ChatGPT non ci resta che utilizzare una VPN.
1Ai è l’acronimo di Artificial Intelliggence
2 Un chatbot è un software che simula ed elabora le conversazioni umane (scritte o parlate), consentendo agli utenti di interagire con i dispositivi digitali come se stessero comunicando con una persona reale
3 Il Deep Learning, la cui traduzione letterale significa apprendimento profondo, è una sottocategoria del Machine Learning (che letteralmente viene tradotto come apprendimento automatico) e indica quella branca dell’intelligenza artificiale che fa riferimento agli algoritmi ispirati alla struttura e alla funzione del cervello, chiamati reti neurali artificiali. Da un punto di vista scientifico, potremmo dire che il Deep learning è l’apprendimento da parte delle “macchine” attraverso dati appresi grazie all’utilizzo di algoritmi (prevalentemente di calcolo statistico).
4 Il prompt è la descrizione, ossia l’input, che diamo all’intelligenza artificiale generativa quando le chiediamo qualcosa. Il prompt Expert una figura professionale che ha il compito di fornire all’intelligenza artificiale descrizioni sempre più precise per fare in modo che le risposte che si ottengono lo siano altrettanto.
BIBLIOGRAFIA
Improving Language Understanding by Generative Pre-Training, The university of British Columbia, https://www.cs.ubc.ca/~amuham01/LING530/papers/radford2018improving.pdf
OpenAI Documentation,
https://platform.openai.com/docs/introduction
SHERPA project
https://www.project-sherpa.eu/european-commissions-proposed-regulation-on-artificial-intelligence-is-the-draft-regulation-aligned-with-the-sherpa-recommendations/
(Ultima consultazione siti web aprile 2023)
Tutti sappiamo, quasi sempre per sentito dire, che la rete internet è nata come progetto militare per garantire la comunicazione sempre e comunque (anche in caso di olocausto nucleare) tra i vari centri di comando. Questa consapevolezza è talmente radicata che siamo convinti che l’infrastruttura internet sia sempre disponibile (escluso i guasti che possono capitare sulla linea ma questo è un altro discorso).
Come stanno realmente le cose?
Internet non è il web.
Per prima cosa dobbiamo chiarire la differenza che c’è tra la rete internet ed il “web”.
La rete internet è un infrastruttura dove viaggiano pacchetti di dati tra vari nodi di computer che si scambiano informazioni tramite delle regole che si chiamano protocolli. I pacchetti dati che vengono scambiati dai vari computer tramite dei “nodi” vengono interpretati da vari programmi (whatsapp, programmi di videoconferenza, programmi FTP, newsgroup, posta elettronica, ecc.) presenti sui singoli dispositivi che provvedono ad interpretarli ed elaborarli. Internet è, insomma, una specie di ferrovia che offre il trasporto di informazioni che attraverso delle stazioni (i server) distribuisce queste informazioni alle singole case presenti in una “citta”, ovvero i singoli computer collegati.
Il web è, invece, solamente uno dei servizi internet che permette il trasferimento e la visualizzazione dei dati, sotto forma di ipertesto. La prima pagina web è stata realizzata da Tim Berners-Lee nel 1991 presso il CERN. Il web ha permesso di trasformare quello che viaggiava su internet da una serie di informazioni statiche ad un insieme di documenti correlati e facilmente consultabili.
Come nasce Internet.
In piena guerra fredda, nel 1958 la difesa degli Usa fondò ARPA, acronimo di Advanced Research Projects Agency e che oggi si chiama DARPA (D sta per Defence) con lo scopo di trovare soluzioni tecnologiche innovative ad un certo numero di problemi, principalmente militari. Tra i vari problemi che ARPA si trovò ad affrontare vi era quello creare un sistema di telecomunicazioni sicuro, pratico e robusto, in grado di garantire lo scambi di informazione tra i vari comandi e sistemi di risposta in caso di attacco nucleare sempre e comunque.
Lo scambio di dati tra i vari computer, fino ad allora, avveniva tramite un collegamento diretto tra i due, solitamente tramite linea telefonica. Questo tipo di scambio dati, oltre che essere poco sicuro, presentava delle debolezze intrinseche: la velocità era limitata e condizionata dal computer più lento e la connessione era limitata a due utenti che venivano collegati direttamente. Ad aumentare la criticità di questo modo di scambiare informazioni, inoltre, vi era il fatto che tutti i dati passavano da un nodo centrale, incaricato di questa operazione di switching, creando un punto critico in caso di guasto o di attacco.
La soluzione fu trovata “imbustando” i dati in una serie di pacchetti che, come in una busta postale, contengono l’indirizzo del mittente, del destinatario e l’informazione che si vuole trasmettere. In questo modo era possibile per più utenti utilizzare una stessa linea e, in caso di guasto o inoperatività di un nodo, le informazioni potevano essere deviate su di un’altra strada, dato che si sapeva “l’indirizzo” del destinatario. L’unico problema che esisteva (ma all’epoca non era considerato un problema visto il numero esiguo di computer presenti) era che bisognava, appunto, conoscere l’indirizzo del destinatario.
Il progetto prese ufficialmente vita nel 1958 quando Steve Crocker, Steve Carr e Jeff Rulifson, in un documento del 7 aprile presentarono l’idea di una rete che prese il nome di ARPANET. Inizialmente furono solo quattro i computer collegati ma in breve tempo il loro numero aumentò includendo non solo enti della difesa USA ma anche università e centri di ricerca.
Per facilitare lo scambio di dati tra computer differenti venne implementato un protocollo apposito il TCP/IP che è tutt’ora utilizzato. A seguire vennero inventate nel 1971 le e-mail, mentre l’anno seguente vide la nascita di un metodo per controllare i computer in remoto che prese il nome di telnet e per finire un protocollo per il trasferimento dei file che si chiama FTP. Tutti questi protocolli che sono tutt’ora esistenti e sono una parte fondamentale di quello che chiamiamo “Internet”.
Anche se negli anni i protocolli si sono evoluti, ne sono nati di nuovi e altri si sono modificati il principio di funzionamento rimane lo stesso degli anni ’60 e oggi sono milioni i computer e i dispositivi interconnessi in tutto il mondo.
C’è pericolo per l’infrastruttura mondiale?
Attualmente abbiamo un mondo sempre più interconnesso. Quando consultiamo un sito internet, mandiamo un messaggio tramite whatsapp o messenger, pubblichiamo una nostra foto su Facebook piuttosto che una storia su Instagram o facciamo un bonifico bancario utilizziamo uno dei tanti servizi che la rete internet ci mette a disposizione.
Spesso i server che utiliziamo sono situati in altri continenti o altre nazioni: le webfarm (luoghi dove sono collocati una serie di Server a temperatura controllata e in sicurezza) che contengono i siti internet non sempre sono in Italia o in Europa anche se il dominio che consultiamo è di tipo .it o .eu ed appartiene ad una società italiana.
A collegare questi server a casa nostra provvede una fitta rete di cavi ottici sottomarini (la mappa è consultabile sul sito www.submarinecablemap.com) che trasportano il 97% del traffico internet mondiale. Sicuramente, a questo punto della lettura, viene da chiedersi perché si preferisca utilizzare i cavi marini anziché i satelliti, come nel caso della costellazione Starlink di Eolon Musk?
Il primo motivo è il costo della tecnologia della fibra ottica che è molto più vantaggiosa della messa in orbita e del mantenimento di una rete di satelliti.
Dobbiamo poi considerare la velocità: satelliti per la trasmissione dati sono, per la maggior parte, situati in orbite geostazionarie il che vuol dire che orbitano su un punto fisso sopra la terra (come i satelliti GPS) ad un’altezza di circa 36.000 km. Ad una tale distanza un bit, che viaggia alla velocità della luce, per percorrere una simile distanza impiega ¼ di secondo e questo tempo di latenza nella comunicazione può, in certi casi, diventare critico.
Dobbiamo, infine, considerare che se tutte le comunicazioni della rete internet dovessero passare tramite satelliti probabilmente questi ultimi avrebbero difficoltà a gestire una mole di traffico eccessiva: un conto è dover gestire 10.000/30.000 utenti collegati contemporaneamente un altro doverne gestire 1.000.000.
Queste autostrade digitali prendono il nome di dorsali, e una delle più importanti passa al largo delle coste irlandesi dove transitano oltre 10 trilioni di dollari al giorno di transazioni finanziarie.
Non stupisce che, dopo il sabotaggio del gasdotto Nord Stream, stia nascendo la preoccupazione di un possibile attentato ai cavi sottomarini da parte dei Governi Europei e della Nato: gli alti funzionari della Marina degli Stati Uniti hanno avvertito per molti anni delle conseguenze catastrofiche di un possibile attacco da parte delle navi russe su cavi Internet.
In realtà, a parte un eventuale aumentare della tensione geopolitica, un reale pericolo non esiste, o meglio, le conseguenze non sarebbero così gravi come certi giornali annunciano: già adesso, ogni giorno, si verificano guasti lungo i cavi ma gli utenti non se ne accorgono.
Abbiamo visto all’inizio che la struttura internet è nata con lo scopo di evitare che un conflitto impedisca la possibilità di scambiare informazioni tra i vari posti di comando. Se un cavo viene tagliato, o anche la maggior parte dei cavi di una dorsale, semplicemente i pacchetti dati verrebbero reindirizzati tramite un’altra strada per raggiungere il destinatario a scapito, ovviamente, della velocità di interscambio dei dati. E se anche un eventuale stato belligerante riuscisse a tagliare tutti i cavi Atlantici si potrebbe sempre reindirizzare il traffico sulla dorsale dell’Oceano Pacifico o via satellite, anche se in quest’ultimo caso bisognerebbe dare la precedenza ai servizi di primaria importanza e si avrebbe un rallentamento generale.
In questo periodo di guerra i propagandisti russi (come Viktor Murakhovsky) hanno dichiarato che la Russia potrebbe danneggiare seriamente le comunicazioni in Europa e ciò avverrebbe tramite l’utilizzo di sottomarini speciali come il Belgorod ma, come abbiamo visto, tutto questo rimane accantonato nella pura propaganda di guerra.
Anche se da un punto di vista puramente strategico il recente conflitto scoppiato in Ucraina sembra riportare indietro la storia militare di quasi 80 anni dove è la fanteria ad avere il peso maggiore, abbiamo visto in questo conflitto per la prima volta l’utilizzo della “Cyberwar” come arma; come un bombardamento può mettere fuori uso le infrastrutture di un paese allo stesso modo un cyber-attacco può paralizzare aeroporti, treni e comunicazioni.
Il 24 febbraio l’aggressione della Russia all’Ucraina era stato anticipato da un attacco tramite un malware che aveva cancellato i computer di una banca ucraina e di un'agenzia governativa. Ma gli attacchi informatici alle strutture amministrative ed economiche ucraine erano iniziati già prima dell'invasione militare: il governo di Zelensky aveva segnalato un cyber-attacco il 14 gennaio che aveva preso di mira i siti web del ministero degli esteri del paese, il gabinetto dei ministri e i consigli della difesa. Un mese dopo i responsabili della cybersecurity ucraine hanno segnalato un attacco DDoS1 contro due delle maggiori banche del paese, PrivatBank e Oschadbank.
Affianco agli attacchi “ufficiali” portati avanti da entrambi i contendenti (anche l’Ucraina tramite una trentina di gruppi di Hacker porta avanti una sua guerra informatica alla Russia) si sono schierati gruppi di hacktivisti2 come Anonymous che, il 26 febbraio ha dichiarato di essere sceso in guerra contro la Russia, creano danni e disservizi come l’Hackeraggio della TV russa con la trasmissione di immagini della guerra o il furto di 35 mila file della banca centrale russa contenente anche contratti segreti; un'azione che ha bloccato il traffico ferroviario in Bielorussia, nazione che appoggia esplicitamente la Russia sia logisticamente che militarmente, è stata rivendicata dai un gruppo hacker.
Affianco a questi attacchi che creano disservizi gli attacchi informatici hanno anche una funzione più diretta nel conflitto: a quanto si è appreso le truppe russe in territorio ucraino non hanno sistemi di comunicazione radio criptati e sono state divulgate le frequenze e le istruzioni necessarie a intercettare gli ordini provenienti dalla catena di comando e le comunicazioni tra le truppe sul campo.
Ma in Italia siamo pronti ad affrontare una guerra informatica?
Il 23 marzo un attacco ransomware ha colpito Trenitalia bloccando la vendita dei biglietti nelle stazioni, nelle biglietterie e self service. Anche se l'attacco hacker sembra essere opera della gang di hacker russo-bulgaro Hive non si sa ancora se sia collegato alla guerra Russo-Ucraina, ma ci mostra la fragilità delle nostre strutture.
Questa fragilità era già stata notata nel luglio del 2021 quando il CED e i servizi informatici della Regione Lazio hanno subito un attacco ransomware3 anche se in quel caso non si è trattato di un attacco informatico mirato (a differenza di quanto ha più volte dichiarato il presidente della Regione Lazio Zingaretti) ma di un ransomware che è entrato nel sistema a causa della “svista” di un dipendente della regione in Smart working.
A tal riguardo risulta interessante e preoccupante al tempo stesso il rapporto Cert-Agid sulla sicurezza dei siti pubblici del dicembre 2020 che dice quanto i nostri dati affidati alle PA locali siano a rischio. Da questa ricerca risulta che 445 (2%) portali istituzionali risultano senza HTTPS abilitato; 13.297 (67%) di questi portali hanno gravi problemi di sicurezza; 4.510 (22%) hanno un canale HTTPS mal configurato; mentre solo 1.766 (9%) utilizzano un canale HTTPS sicuro. Quasi il 50% dei siti monitorati anziché utilizzare soluzioni ad hoc si affidano a dei CSM che non sempre sono aggiornati all’ultima versione.
Se affianco a questi problemi strutturali mettiamo anche il fatto che molti dei dipendenti pubblici non hanno alcuna conoscenza sulla sicurezza informatica e si comportano con superficialità come nel caso sopra citato dell’attacco ramsomware alla Regione Lazio il quadro generale che si presenta è quello di un possibile colabrodo.
L’ Agenzia per l'Italia digitale (AGID) ha emanato una serie di misure minime di sicurezza per le pubbliche amministrazioni che andrebbero attuate. A seconda della complessità del sistema informativo a cui si riferiscono e della realtà organizzativa dell’Amministrazione, le misure minime possono essere implementate in modo graduale seguendo tre livelli di attuazione: minimo, standard, avanzato.
Il livello minimo è quello al quale ogni Pubblica Amministrazione, indipendentemente dalla sua natura e dimensione, deve necessariamente essere o rendersi conforme; quello standard è il livello che ogni amministrazione deve considerare come base di riferimento in termini di sicurezza e rappresenta la maggior parte delle realtà della PA italiana; infine il livello avanzato deve essere adottato dalle organizzazioni maggiormente esposte a rischi in base alla criticità delle informazioni trattate o dei servizi erogati, ma deve anche essere visto come l’obiettivo di miglioramento da parte di tutte le altre organizzazioni. È importante sottolineare che sebbene queste linee guida risalgono al 2017 il rapporto Cert-Agid sulla sicurezza dei siti pubblici è del 2020 e mostra quindi quanto sia ancora molto il lavoro da fare.
Per ultimo bisogna inserire nelle nostre considerazioni sulla sicurezza informatica italiana anche il recente dibattito sull’aumento delle spese militari in Italia: da quanto riportato da Adolfo Urso, presidente del Copasir, "Più spese per la difesa servono anche alla cybersecurity".
In diverse Relazioni il Comitato parlamentare per la sicurezza della Repubblica ha documentato al Parlamento come la Russia fosse diventata un Paese molto attrezzato nella sfera cibernetica e quanto fosse importante la difesa cyber, indicando la necessità di estendere il “golden power”4 al sistema delle telecomunicazioni e la necessità di realizzare un perimetro nazionale sulla sicurezza cibernetica. Questi due obiettivi sono stati raggiunti mentre a giugno 2021 è stata realizzata l’Agenzia nazionale cibernetica (un risultato purtroppo arrivato con dieci anni di ritardo rispetto a Paesi come la Francia e la Germania).
Una parte dell’aumento delle spese previste per la difesa andrebbero quindi a finanziare l’Agenzia nazionale cibernetica dato che, come abbiamo visto, la Cyberwar è pericolosa come una guerra normale.
Se nelle aziende private il problema della sicurezza informatica è sentita da tempo, tanto che gli investimenti sono sempre più sostanziosi e riguardano anche la formazione del personale, lo stesso non vale per la pubblica amministrazione dove spesso mancano le competenze e la reale percezione del pericolo che rappresenta. Affianco a questo stiamo assistendo a prese di posizione ideologiche che impediscono l’attuazione di un vero piano di sicurezza a livello nazionale.
Anche se non si potrà mai avere una sicurezza informatica al 100% ma cercare di limitare i danni è diventato oggi non più un opzione ma un obbligo.
1 Un attacco DDoS (Distributed Denial of Service) è un'arma di sicurezza informatica mirata a interrompere le operazioni di servizio o ad estorcere denaro da organizzazioni mirate. Gli attacchi possono essere guidati da politica, religione, competizione o profitto. Un attacco DDoS è una versione distribuita di un attacco Denial of Service (DoS) con lo scopo di interrompere le operazioni aziendali. Questo attacco utilizza un grande volume di traffico per sovraccaricare le normali operazioni di interconnessione di servizio, server o rete, rendendole non disponibili. Gli attacchi DoS interrompono un servizio mentre gli attacchi distribuiti (DDoS) sono eseguiti su scala molto più ampia, con la conseguente chiusura di intere infrastrutture e servizi scalabili (servizi Cloud).
2 L’hacktivismo è una forma di attivismo digitale non violento, il cui scopo principale non è legato a interessi economici personali. Gli Hacktivisti con le loro campagne mirano a obiettivi politici, sociali o anche religiosi in linea con la causa propugnata da ciascun gruppo di appartenenza.
3 I ransomware sono virus informatici che rendono inaccessibili i file dei computer infettati e chiedono il pagamento di un riscatto per ripristinarli.
4 Il golden power è uno strumento normativo, previsto in alcuni ordinamenti giuridici, che permette al Governo di un Paese sovrano di bloccare o apporre particolari condizioni a specifiche operazioni finanziarie, che ricadano nell'interesse nazionale
BIBLIOGRAFIA:
https://cert-agid.gov.it/news/monitoraggio-sul-corretto-utilizzo-del-protocollo-https-e-dei-livelli-di-aggiornamento-delle-versioni-dei-cms-nei-portali-istituzionali-della-pa/
https://sog.luiss.it/sites/sog.luiss.it/files/Policy_paper_print.pdf
https://www.agid.gov.it/it/sicurezza/misure-minime-sicurezza-ict
https://www.gazzettaufficiale.it/eli/id/2017/05/05/17A03060/sg
Siamo alle soglie del web 3.0 che non è solo il metaverso, che del futuro web rappresenta una visione dall’impatto molto forte, ma il web che verrà, seppur ancora molto nebuloso oggi, sarà molto di più.
Fino al 1993 internet era utilizzato quasi esclusivamente da scienziati, università, centri di ricerca e militari, l’utilizzo e la consultazione era fatto quasi esclusivamente tramite riga di comando. Con “l’apertura” della rete a tutti quanti inizia quello che verrà definito web 1.0.
All’inizio il web non era altro che un’evoluzione delle vecchie BBS, dove gli utenti si collegavano a delle pagine, ospitate da server ed usufruivano dei contenuti in maniera passiva. Chi si collegava ad un sito poteva solo navigare, sfogliare un catalogo virtuale di prodotti, approfondire delle conoscenze o fare acquisti online.
Le possibilità di interazione con i siti è molto limitata e, solitamente, avveniva tramite e-mail, fax, telefono e pochissimi siti permettevano di uplodare contenuti personali tramite Common Gateway Interface1 sviluppati in C/C++ o Pearl che spesso erano complicate da sviluppare e costose.
Il flusso di comunicazione era quindi unidirezionale da parte del sito web aziendale o personale che dava informazioni a utenti passivi.
Da un punto di vista economico il modello che presenta il web 1.0 non discosta molto dai media comuni quali la televisione o i giornali: su una pagina o un sito internet vengono pubblicati banner pubblicitari a pagamento o tramite il metodo PPC (Pay Per Click).
Il web 2.0 si evolve dando l’opportunità agli utenti di interagire con i siti e diventando loro stessi creatori di contenuti. All’inizio sono solo piccoli blog personali e qualche social network come Myspace o Twitter, in particolare, è quest’ultimo che dà la prima innovazione permettendo ai suoi iscritti di pubblicare brevi messaggi, anche tramite SMS e la possibilità di “ri-twittare” questi ultimi quindi condividerli; un anno dopo la sua nascita, nel 2007, nascono con twitter gli hashtag che permettono di aggregare le notizie e così dalle bombe a Boston del 2013, alla guerra in Siria, chi è testimone di eventi importanti ha la possibilità di informare il resto del mondo.
Allo stesso modo i nascono i social network che permettono di creare reti di utenti che scambiano idee ed opinioni (naturale evoluzione dei newsgroup e dei forum del web 1.0) e creano la nascita di nuove aziende e giganti del web che raccolgono sui loro server i dati degli utenti oltre che i contenuti che vengono pubblicati. Siti come Youtube, Facebook, Instagram, “vivono” grazie ai contenuti che gli iscritti generano e non forniscono nulla all’infuori dell’infrastruttura necessaria molto semplice da utilizzare e molta pubblicità.
Ed ecco la prima grande differenza tra il web 1.0 ed il 2.0: le centralità. Esistono poche aziende che offrono servizi che le persone utilizzano e i dati ed i contenuti che gli utenti producono sono conservati sui server di poche aziende. Prima chi pubblicava qualcosa online, sia che fosse su un sito personale o su un blog era il proprietario dello spazio che utilizzava, in quanto veniva affittato da un provider e i dati personali così come i contenuti che vi erano pubblicati rimanevano di sua proprietà mentre con l’utilizzo di social o di siti che permettono di condividere idee, foto e quant’altro possibile l’utente “cede” i propri dati personali così come i contenuti che genera ad un’azienda terza che ne può usufruire liberamente.
Con il web 2.0 viene generato un nuovo tipo di interconnessione tra utenti e servizi che genera una convergenza digitale dove poche interfacce tendono ad aggregare più servizi: tramite l’account social possiamo iscriverci a servizi di streaming o di mail, sui social possiamo leggere le ultime notizie di un giornale senza dover andare sul sito del medesimo, tramite i social possiamo mandare un messaggio ad un amico o più amici ed organizzare uscite o riunioni. Tutti questi servizi sono accentrati in un unico posto, sia fisico che virtuale, di proprietà di poche Holding internazionali.
Il modello economico del web 2.0 è anch’esso un’evoluzione del precedente, non solamente si basa sulla pubblicità che viene presentata agli utenti, ma anche tramite la condivisione dei dati personali che questi memorizzano sui server dei quali sono fruitori. Ed ecco perché c’è la necessità di centralizzare i dati raccolti.
Questo non vuol dire che l’attuale versione del web sia completamente negativa. Basti pensare cosa sarebbe successo all’economia mondiale durante la pandemia di Covid-19 se non vi fosse stata la possibilità di fare Smart Working elastico e flessibile, reso possibile proprio grazie alle innovazioni tecniche scaturite a seguito dell’evolversi del web, come ad esempio l’utilizzo di tecniche WebRTC2 o di file Sharing3.
Il web 3.0 rappresenterà, si spera, un’evoluzione dell’attuale concetto di web eliminando per prima cosa la centralità ed in questo modo garantire una miglior privacy e sicurezza dei dati. Come per il web 2.0 quando nacque anche per il 3.0 non sono ancora definite delle regole e delle linee guida tanto che si parla ancora di “possibili” evoluzioni e non di certezze, anche se possiamo descrivere quello che probabilmente sarà.
I social rimarranno e si evolveranno dando la possibilità di utilizzare realtà aumentata o virtuale (come nel caso del Metaverso) e nasceranno sempre più spazi virtuali 3D simili a “Second Life”.
L’aumento di contenuti generati dagli utenti trasformerà il web in un enorme Database dove per poter accedere in maniera costruttiva alle informazioni si farà sempre maggior uso del web semantico4 e dell’intelligenza artificiale che imparerà a conoscerci e conoscere i nostri gusti e abitudini. Per poter utilizzare al meglio l’intelligenza artificiale sul web e garantire nel contempo la privacy bisogna però che venga decentralizzata (oggi Alexa, Google, Siri, Cortana, ecc. accedono via web ai server centrali delle rispettive aziende per poter funzionare) e dovrà essere controllata da una grande rete aperta, riducendo i rischi di monopolio.
Per poter attuare un web più decentrato si utilizzerà sicuramente la tecnologia blockchain che, per sua natura, si presenta come un’ architettura decentralizzata. La stessa tecnologia che sta alla base delle criptovalute e che, utilizzata per la sicurezza del passaggio dati nelle filiere, sarà la base dalla quale partirà il web 3.0. La blockchain è una struttura dati condivisa e immutabile, assimilabile a un database distribuito, gestito da una rete di nodi ognuno dei quali ne possiede una copia privata. Tutto questo permetterà di eliminare i webserver centralizzati in quanto i singoli utenti diventano loro stessi dei “miniserver”.
Come l’internet dell’inizio questo metodo garantirà che se anche un nodo va in crash o il server centrale (come ad esempio quello che gestisce Whatsapp, o Youtube o Facebook) il nostro sistema continuerà a funzionare ed i dati continueranno ad essere disponibili tra gli utenti. Questo permetterà anche un passaggio della governance del servizio dove i singoli utenti avranno maggior potere rispetto all’azienda principale; anche le informazioni saranno rivoluzionate e verranno riunite da diverse fonti tramite tecnologie tipo XML, WSDL o simili in un unico database che non esiste realmente ma è semplicemente un raccoglitore, ma al quale si potrà attingere come fosse un normale database.
Il cambiamento non sarà veloce ma assisteremo ad una transizione più “dolce” rispetto a quella dal web 1.0 al 2.0. Per molto tempo i due differenti web (2.0 e 3.0) convivranno ma il cambiamento, anche se lento sarà molto più profondo perché non sarà tanto un cambiamento di come “vediamo” il web ma riguarderà i suoi più profondi paradigmi. Quando arriveranno il metaverso e i su suoi simili saranno ancora sistemi che si basano sul concetto del web 2.0 dove tutto è ancora centralizzato ma dietro a questi compariranno sempre più servizi che si basano su strutture decentralizzate e, per chi fosse incuriosito, segnalo due esempi già esistenti: dtube (https://d.tube/) e OpenBazaar (https://github.com/OpenBazaar/openbazaar-desktop/releases) rispettivamente l’equivalente di Youtube ed e-Bay ma… decentralizzati.
1La Common Gateway Interface (CGI) è un’interfaccia di server web che consente lo scambio di dati standardizzato tra applicazioni esterne e server. Appartiene alle prime tecnologie di interfaccia di Internet. Le CGI sono dei programmi residenti sul server che ricevono in input un “GET” dal client che viene elaborato e come risultato generano una pagina internet standard.
2Con WebRTC si possono aggiungere funzionalità di comunicazione in tempo reale alle applicazioni web, che altrimenti impossibile, a causa della tecnologia di comunicazione utilizzata sul protocollo internet. WebRTC si basa su uno standard aperto. Supporta i dati video, vocali e generici nello scambio di dati, consentendo agli sviluppatori di creare soluzioni efficaci per voce e video. La tecnologia è disponibile su tutti i browser moderni e sui client nativi per tutte le principali piattaforme. Le tecnologie su cui si basa WebRTC vengono implementate come standard web aperti e disponibili come normali API JavaScript in tutti i principali browser. Per i client nativi, come le applicazioni Android e iOS è disponibile una libreria che fornisce la stessa funzionalità. Il progetto WebRTC è open source ed è supportato da Apple, Google, Microsoft, Mozilla e molti altri.
3 Il termine file sharing si riferisce ad un apposito sistema che consente agli utenti di condividere file e documenti sul web o all’interno della medesima rete. Grazie ai programmi e siti di file sharing è infatti possibile trasferire dei documenti da un device all’altro.
4 Nel Web semantico ad ogni documento (un file, un’immagine, un test, etc.) sono associate informazioni e metadati che, fornendo un contesto semantico, ne rendono più facile l’interrogazione e l’interpretazione automatica da parte di un motore di ricerca. L’idea viene ipotizzata alla fine degli anni ’90 da Tim Berners-Lee dove ipotizzava un futuro dove “..il commercio, la burocrazia e le nostre stesse vite quotidiane saranno gestite da macchine che parlano con altre macchine” .
BIBLIOGRAFIA:
Berners-Lee, M. Fischetti, “Weaving the Web“, 1999
Dev, maggio 2006, “Meta Content Frameworks e Rsource Decripti on Frameworks”, pp.61-66
Nel 1086 Guglielmo il Conquistatore diede origine a quello che viene definito il più antico catasto inglese ed il primo di tutto il medioevo: il “Domesday Book”. Il manoscritto originale, scritto in latino su pergamena , è tutt’ora esistente e conservato negli archivi nazionali britannici, nel distretto londinese di Kew.
Nel 1983, durante il governo Thatcher, si decise di fare un “Domesday Book” nuovo che utilizzasse le più moderne tecnologie allora disponibili: il videodisco ed il microcomputer. Quindici anni più tardi tutto il lavoro fatto rischiava di essere inutilizzabile in quanto, anche se il supporto era ben conservato era diventato quasi impossibile trovare un lettore per il videodisco ed un microcomputer in grado di decodificare i dati.
Per fortuna si riuscì a trovare un lettore ed un computer adatti, a recuperare tutto e mettere online i contenuti.
La scelta nel 1983 di utilizzare come supporto un videodisco non sembrava strana: negli anni ’80 la tecnologia laser per la lettura dei dati era al suo inizio e rappresentava il futuro. Il metodo per creare questi supporti, inoltre, era molto simile a quello dei normali CD (nati solamente da pochi anni) e, come loro, anche il videodisco era considerato il supporto perfetto in quanto era robusto, e destinato a durare a lungo.
Purtroppo gli inizi degli anni ’80 hanno rappresentato non solo l’inizio della massificazione dell’informatica ma anche il suo “brodo primordiale” nel quale vi era una quantità enorme di sistemi operativi, formati e standard diversi che nascevano e morivano. Per fare un esempio il DOS 1.2 che sarebbe diventato il sistema operativo di riferimento per le macchine XT compatibili era stato commercializzato da appena un anno ed in breve tempo la “lingua” nel quale erano stati memorizzati i dati del nuovo “Domesday Book” digitale era diventata sconosciuta e anche i mezzi erano spariti.
Fin dall’inizio dell’invenzione della scrittura, l’uomo ha conservato i documenti pensando che si potessero consultare per sempre purché non si rovinasse il supporto sul quale erano “memorizzati”: una vecchia pergamena sarà sempre leggibile (a patto di conoscere la lingua nella quale è stata scritta) semplicemente aprendola, così come un libro o una tavoletta cuneiforme. Il passaggio al digitale ha dimostrato che questo non è più possibile e che, oltre all’informazione, è importante avere anche lo strumento per leggerla. Nel 1965 Gordon Moore, cofondatore dei Intel, elaborò quella che passerà alla storia come legge di Moore: “La complessità di un microcircuito, misurata ad esempio tramite il numero di transistor per chip, raddoppia ogni 18 mesi (e quadruplica quindi ogni 3 anni).” Questa affermazione, basata su osservazioni empiriche, si rivelò esatta e divenne l’obbiettivo che tutte le aziende produttrici di microprocessori si pongono come obbiettivo.
Come diretta conseguenza di questo abbiamo una costante accelerazione della tecnologia e una conseguente evoluzione dei sistemi informatici. Prendiamo ad esempio il classico floppy disk: si è passati dal primo floppy ad 8 pollici a quello da 5 ¼ per finire con quelli da 3 ½ negli anni ’90 e primi anni del nuovo secolo per poi sparire completamente. Se oggi è ancora possibile trovare un lettore per “dischetti” da 3.5 pollici è molto difficile trovarne di quelli che leggono quelli precedenti da 5 ¼ e quasi impossibile quelli da 8” e chi trovasse in soffitta dei vecchi floppy quasi certamente si troverebbe nella condizione di non sapere cosa farsene o come leggerli.
Pensare che questo problema riguardi solamente i mondo dei computer è sbagliato.
Anche le cassette musicali o i vecchi video su VHS o Video 8 hanno subito lo stesso destino: gli strumenti per leggere questi supporti sono gradualmente spariti dagli scaffali dei negozi di elettronica e chi ha ancora delle vecchie video cassette, magari con le vacanze fatte con la famiglia una ventina d’anni addietro, rischia di non poterle più rivedere tra qualche decade.
Ma a creare problemi nel passaggio dall’analogico al digitale non è solamente l’utilizzo di un supporto anziché un altro ma anche, come abbiamo visto, la “lingua” nella quale le informazioni sono memorizzate, in particolare se la tecnologia ed il metodo di codificarle utilizza un formato proprietario.
I formati proprietari sono, in genere, dei metodi di codifica delle informazioni che utilizzano algoritmi che appartengono a qualche azienda o organizzazione che ne dispone i metodi di utilizzo. Se un domani chi detiene il brevetto per questo tipo di codifica decidesse di non renderlo più disponibile nei suoi programmi o in quello di altri si perde la possibilità di poter accedere nuovamente ai propri dati. Vice versa l’utilizzo di quelli che vengono chiamati formati aperti, permette di memorizzare le informazioni in formato digitale utilizzando dei metodi che sono di dominio pubblico e liberamente utilizzabili.
Un esempio di quanto l’utilizzo di un formato aperto sia importante lo si trova negli ebook.
Alla fine degli anni ’90 l’azienda statunitense Microsoft lanciò sul mercato un suo formato per leggere gli e-book; un formato che offriva la possibilità di avere file leggeri e una buona leggibilità su schermi piccoli. In particolare Microsoft stava entrando a gamba tesa nel mercato dei dispositivi mobili come PDA, Palmari, Pocket PC e smartphone con il suo sistema operativo Windows CE ed il formato .lit era perfetto per poter sviluppare un mercato di editoria digitale su questo tipo di dispositivi che utilizzavano questo il sistema operativo. Per circa una decina d’anni (fino al 2011) il formato Microsoft visse una parabola: prima una crescita e poi una discesa fino a non venir più aggiornato e supportato, così che tutti i libri distribuiti in quel formato sono ora leggibili solo tramite il sistema operativo Windows che supportano l’ultima versione del programma Microsoft Reader, in quanto i moderni lettori di e-book non hanno più la compatibilità con questo formato. Al suo posto, invece, il formato .ePub, nato nel 2007 come formato aperto, è diventato lo standard preferenziale per quasi tutti i lettori di e-book (fanno eccezione i Kindle che supportano il formato proprietario .mobi), tanto che esistono migliaia di app e programmi che possono supportare questo formato.
È quindi importante, quando si decide di memorizzare delle informazioni per essere conservate fare attenzione al formato che si vuole utilizzare: se memorizzo del testo formattato è sempre meglio optare per il formato .ODT anziché .DOC o DOCX di word, così per le pagine web è sempre meglio preferire il formato HTML al posto del . WebArchive che è leggibile solamente dal browser Safari di Apple.
Il passaggio dai dati analogici a quelli digitali (dalle cassette ai CD, dai VHS ai DVD, eccetera) è comunque un passaggio inevitabile e, malgrado quanto detto fino ad ora, la possibilità di salvare qualcosa in una sequenza di 0 e 1 offre una serie di vantaggi che non si possono ignorare.
Rispetto ad un’informazione analogica, quella digitale può essere riprodotta infinite volte anche dalle sue stesse copie, rimanendo sempre fedele all’originale (a meno che non venga deliberatamente modificata). Un manoscritto, se è copiato con un errore, quest’errore verrà ripetuto anche nelle copie successive; una cassetta, musicale o video che sia, tenderà a perdere di qualità con il tempo e quest’informazione errata sarà amplificata nelle copie successive, così come una serie di fotocopie fatta da altre fotocopie tenderà ad essere sempre più chiare e quindi differire dall’originale.
Per chi si preoccupa che anche nel copiare un dato in digitale possa generarsi un errore di trascrizione bisogna sottolineare quanto questo sia improbabile: si può trasmettere un’informazione che contiene al suo interno i dati necessari per la correzione degli errori (come ad esempio il codice Reed-Solomo del 1960) che permettono, anche nel caso una parte di dei bit che compongono il messaggio memorizzato o inviato siano rovinati, di poter ricostruire la sequenza digitale originale per quel bit in modo da avere l’informazione completa. Ogni giorno, quando guardiamo la televisione digitale (per chi come me ha anche visto i vecchi tv analogici) ci accorgiamo che l’immagine è sempre o chiara e pulita oppure assente completamente, e non più come nelle vecchie trasmissioni in analogico dove spesso i programmi erano disturbati. Questo perché un’informazione in digitale, come abbiamo detto è in grado di auto correggersi ed eliminare il “rumore”.
Da un punto di vista economico, salvare i propri dati in formato digitale offre dei grandi risparmi. Stampare una foto analogica, ad esempio, ha un costo di circa 8,50 € per un rullino da 25 pose di pellicola negativa in bianco e nero, 7,50 € per i negativi a colori (procedimento C41) e 11 € per le diapositive (procedimento E6) più 2 € per l’intelaiatura per queste ultime. Al costo della stampa va poi aggiunto il prezzo del rullino che è di circa 6,00€ per 24 pose come nel caso del Kodak Gold 200. Facendo due conti veloci il costo di una foto in analogica è di circa 0,50€.
Utilizzare invece il formato digitale permette di visualizzare la foto su molti dispositivi, dagli smartphone alle televisioni senza costi di sviluppo. Considerando il prezzo di una scheda SD di buona qualità con una capacità di 64Gb è di circa 25,00€ e che si possono memorizzare più di 9.000 foto1, mentre per stamparle il costo è di circa 0.05€ a foto. Se poi si volesse memorizzare le foto anziché su di una scheda SD su di un Hard Disk il prezzo per Mb è ancora più basso.
Per finire, salvare i dati in formato digitale non solo è più conveniente, ma aiuta ad avere un impatto ambientale, sul breve periodo, molto basso.
I dispositivi non sono però tutti uguali e quando parliamo di Hard disk, memorie USB o schede SD bisogna sempre tenere presente che questi supporti hanno un numero massimo di scritture possibili e che Hard Disk e memorie allo stato solido come SSD, anche se possono sembrare simili, memorizzano i dati in maniera diversa: se per un tradizionale hard disk possiamo considerare una vita media di almeno 10 anni per una memoria allo stato solido come und disco SSD i dati si possono scrivere su una cella di memoria all'interno dei chip NAND Flash, un numero di volte compreso tra circa 3.000 e 100.000 nel corso del loro ciclo di vita. Questo ciclo di vita scende ulteriormente se si parla di schede SD o di chiavette USB.
Certo si può pensare di salvare tutti i dati su un supporto ottico come ad esempio un CD o un DVD ma anche in questo caso il nostro disco, anche se conservato con attenzione, non è detto che sia sicuro: negli ultimi anni si sono verificati casi di CD (spesso di fascia economica) dove lo strato protettivo di plastica si sfaldava lasciando esposta la parte interna che contiene i dati dopo solo 10 anni.
Per risolvere questi problemi nell’ultimo decennio si è iniziato ad utilizzare sempre di più il “Cloud” per salvare i dati importanti; alcune aziende mettono, addirittura, automaticamente a disposizione un servizio di cloud dove salvare i dati e le foto presenti nei propri telefoni cellulari come Apple o Google.
Ma anche in questo caso i dati non sono propriamente al sicuro, anzi forse lo sono ancora meno di altri supporti perché il vero proprietario è chi amministra il servizio di Cloud e non l’utente che salva i dati in quel posto e se l’azienda che è proprietaria dei server, per un qualunque motivo, decidesse di interdire l’accesso ai dati o di cancellarne il contenuto, l’utente non potrebbe fare nulla. L’utilizzo di un servizio remoto per salvare i propri dati è quindi da considerare come una copia della copia e non come la soluzione principale.
A questo punto viene da chiedersi: “se siamo passati dai 2000 anni circa di durata di un papiro ai 20 scarsi di un CD conviene passare i propri dati, le proprie memorie, la propria vita in un formato digitale?”
Malgrado quello che si può pensare la risposta è Si!
Un sì dato che i vantaggi superano di molto gli svantaggi; un sì che richiede l’uso attento di poche e semplici regole per preservare le nostre memorie, come l’utilizzo di supporti di qualità (soprattutto nel caso si utilizzino chiavette USB o CD piuttosto che DVD), avere sempre una copia della copia dei dati importanti e, ultimo ma non per questo di minor considerazione, utilizzare dei formati che siano il più aperti possibili come JPG o PNG per le foto, ODT o TXT per i testi, XML o HTML per il web, eccetera.
1Dati indicativi per difetto considerando foto a 16MPx e 72DPI.
BIBLIOGRAFIA:
L’App IO per il “Cash Back” rientra nel più ampio “Piano Italia cashless” volto ad incentivare l’uso dei pagamenti elettronici. A differenza di quanto è successo per l’app Immuni, questa nuova iniziativa del Governo Italiano sembra aver avuto maggior successo e sembra anche che la maggior parte dei preconcetti riguardo la privacy, che hanno rallentato l’utilizzo dell’app di tracciabilità del Covid, non abbiano disincentivato questa volta gli utenti a scaricarla, malgrado la privacy sia meno tutelata realmente con l’uso di IO per il cashback.
Cos’è il Cashback di Stato
Cashback significa ottenere indietro i soldi in cambio degli acquisti effettuati che, in questo caso, prevede il rimborso del 10% da parte dello Stato Italiano, delle spese effettuate con sistemi di pagamento elettronici nei negozi. L’ 8 dicembre è partita la versione sperimentale di questo procedimento; nei piani del governo il cashback è una delle misure pensate per disincentivare l’uso del contante, spingere i pagamenti digitali e contrastare l’evasione fiscale.
Il procedimento di Cashback non è nuovo, diverse carte di pagamento, negozi online e app di pagamento lo hanno utilizzato e lo utilizzano tutt’ora come strumento promozionale o di fidelizzazione (e a volte è stato utilizzato anche da truffatori e siti malevoli). Si capisce subito che questo procedimento non è propriamente un metodo di guadagno, visto che non c’è alcun ricavo sull’acquisto e non è neanche uno sconto, dato che i soldi vengono accreditati a posteriori quando la spesa è già fatta, ma possiamo considerare invece il normale cashback come una ricompensa che una carta, un negozio o un sito riconosce agli utenti che sono fidelizzati.
Il metodo di rimborso ideato dal Governo Conte è invece una misura ideata nel tentativo di arginare, come abbiamo detto, l’evasione fiscale e modificare le abitudini dei cittadini Italiani verso metodi di pagamento tracciabili.
Quella iniziata l’ 8 dicembre è una sperimentazione e, per adesso, è valida solo se si utilizzano carte di credito, di debito o bancomat mentre sono escluse le app come Google Pay o Apple Pay che saranno attive con l’inizio ufficiale dal 1° gennaio 2021. Il rimborso sarà semestrale e di un importo massimo di 1.500 euro; per ottenerlo, però, è necessario fare almeno 50 pagamenti, che vanno da un minimo di 1 euro ad un massimo 150 euro, nei sei mesi.
Chi volesse aderire al cashback deve essere maggiorenne e residente in Italia. Deve poi registrarsi all’app IO della piattaforma della Pubblica Amministrazione, tramite l’SPID o con la carta d’identità elettronica, quindi bisogna indicare il proprio codice fiscale, uno o più sistemi di pagamento elettronico che si utilizzeranno per i pagamenti, e l’Iban del conto corrente su cui verrà accreditato il cashback ogni sei mesi.
L’app IO
L’app IO non è solamente utilizzabile per il cashback ma è un progetto del Governo Italiano, già attivato lo scorso 18 aprile, che permette ai cittadini di poter accedere in modo semplice ai servizi della Pubblica Amministrazione, sia locale che nazionale, direttamente da smartphone.
Un cittadino può tramite IO, ad esempio, ricevere messaggi e comunicazioni riguardanti le proprie scadenze verso la PA come carta d’identità, permesso ZTL, ricevere avvisi di pagamento con la possibilità di pagare tasse come il bollo auto o la TARI direttamente dall’app, mentre in futuro sarà anche possibile ottenere certificati, documenti personali digitali e molto altro.
Dall’8 dicembre, dicevamo, è possibile utilizzare IO anche per registrare i pagamenti associati al cashback di stato. Ad oggi (metà dicembre 2020) i cittadini che hanno scaricato l’app sono più di 8 milioni con un incremento significativo a partire dall’inizio del mese a pochi giorni prima dell’avvio sperimentale del Cashback di stato (un milione in più solamente tra il 7 e l’8 dicembre).
Per utilizzare l’app IO bisogna prima di tutto scaricarla dallo store del nostro dispositivo (Android o I/OS); una volta scaricata ed installata l’app ci chiede la registrazione, che avviene tramite SPID oppure via carta d’identità elettronica. E qua iniziano i primi problemi in quanto non tutti i cittadini italiani hanno un SPID o una carta digitale e quindi bisogna munirsi di uno di questi due strumenti. Il sito spid.gov.it mette a disposizione una lista di diversi “gestori d’identità” abilitati alla generazione dello SPID gratuitamente, ma il processo non risulta mai comodo o semplice.
Poste italiane, ad esempio, permette di avere un SPID gratuitamente recandosi presso uno degli sportelli di Poste Italiane o a pagamento se un incaricato si reca a casa. Anche altri gestori premettono il riconoscimento di persona, ma giustamente, bisogna recarsi presso i loro uffici. Ci sono anche metodi di riconoscimento da remoto, tramite webcam, carta d’identità elettronica o passaporto elettronico ma non tutti i fornitori del servizio lo mettono a disposizione gratuitamente.
Una volta registrata l’app IO, tramite SPID o CIE, l’utente deve indicare un pin ed eventualmente registrare la propria impronta digitale, dopo la prima registrazione, per accedere ogni volta basterà inserire il pin e non sarà più necessario utilizzare l’SPID.
E la privacy?
Appena uscita l’app IO ha subito manifestato dei problemi dato il grande numero di query effettuate che i server non erano in grado di gestire (tanto che nuovamente Pornhub aveva offerto l’utilizzo dei propri server), e l’ hashtag #IOapp è stato uno dei più utilizzati per visualizzare le lamentele degli utenti.
Accanto a questo hashtag però un altro compare nelle ricerche: #IOappPrivacy.
Ad onor del vero l’informativa sulla privacy andrebbe sempre letta quando scarichiamo ed installiamo un’app o un programma e a maggior ragione andrebbe letta quando riguarda dati estremamente sensibili come nel caso dell’app IO.
Ma quali dati sono interessati da questa app?
Abbiamo detto che per utilizzare il servizio cashback bisogna comunicare all’app IO il proprio codice fiscale e il proprio IBAN, mentre gli altri dati che l’app raccoglie sono gli estremi della carta, i dati identificativi del titolare della carta stessa, gli Importi degli acquisti e la loro geolocalizzazione nonché la cronologia di questi ultimi.
Certo, viene da obbiettare che la maggior parte di questi dati sono già in possesso dell’azienda che eroga i servizi, qual è quindi la differenza ?
Mentre nel caso di utilizzo di una o più carte su di un sito o presso un negozio ogni dato rimane a disposizione solamente del gestore della carta e del gestore del sito, nel caso di IO la questione è più complessa perché se registriamo e abilitiamo al cashback più carte tutti i dati delle transazioni tramite tali carte vanno a finire dentro un unico grande gestore che ha accesso a tutti i dati e può anche incrociarli.
Il fatto che l’acquisto con metodo di pagamento elettronico sia incentivato dal cashback, poi, stimola l’utente a fare più transazioni con le carte e le app e, quindi, a concedere più dati di quanti non ne concederebbe normalmente. Ai dati delle carte si aggiunge poi il codice IBAN sul quale versare il cashback, che può anche essere diverso dall’eventuale IBAN della carta di pagamento. Insomma il paradiso dei Big Data!
L’app IO è gestita dal MEF (Ministero dell’Economia e delle Finanze ) che è titolare del trattamento dei dati personali, mentre le due società controllate pubbliche PagoPA S.p.A. e Consap S.p.A. sono responsabili del trattamento dei dati personali in rispetto del GDPR. PagoPA e Consap sono autorizzate a nominare eventuali sub-responsabili, in caso, quindi alcune operazioni sui dati vengano subappaltate.
In particolare PagoPa organizza e gestisce tutto il funzionamento del meccanismo del cashback, mentre Consap gestisce gli eventuali reclami tramite una piattaforma web appositamente creata.
Quello che fa riflettere è un paragrafo della privacy policy di IO per il cashback che specifica che alcuni dati potrebbero essere inviati a dei paesi extra-UE: “Per la gestione dell’App IO, utilizzata per il servizio Cashback e gestita da PagoPA S.p.A., la predetta Società si avvale, limitatamente allo svolgimento di alcune attività, di fornitori terzi che risiedono in paesi extra-UE (USA). Per lo svolgimento di alcune attività connesse alla gestione dei reclami attraverso il Portale dedicato, Consap S.p.A. si avvale di fornitori terzi che hanno la propria sede in Paesi extra-UE (USA) “. Stando a quanto afferma PagoPA uno dei soggetti terzi è l’azienda americana Oracle sui cui server sono ospitati i dati dei reclami (indirizzo di posta elettronica e password, codice fiscale, nome e cognome, dati dei documenti di identità allegati, dati relativi al reclamo stesso). Insomma sembra che questa clausola esista solo per permettere l’utilizzo di server di aziende extra UE che comunque sono localizzati fisicamente in Europa e la cui trasmissione dei dati avviene in maniera crittografata, quindi sicura.
Per finire va sottolineato che la privacy policy dell’app chiarisce che è vietato, oltre alla vendita dei dati, ogni utilizzo per scopi di profilazione, il che vuol dire che non arriverà nessuna pubblicità mirata legata ai dati che raccoglie l’app IO e che ogni utente può uscire in ogni momento dal piano cashback, richiedendo la cancellazione dei propri dati.
Tutto risolto quindi? Non proprio. L’invio di dati negli Stati Uniti è ormai ritenuto non sicuro da parte dell’Unione Europea dato che il governo USA ha potere di accesso ai dati degli europei e, a quanto sembra, questo viene fatto regolarmente.
E questo non è complottismo visto che la Corte di giustizia dell'Unione europea (CGUE) si è pronunciata il 16 luglio 2020 (c.d. "Sentenza Schrems II") in merito al regime di trasferimento dei dati tra l'Unione europea e gli Stati Uniti facendo notare proprio questo e sottolineandolo nelle FAQ :” La Corte ha ritenuto che i requisiti del diritto interno degli Stati Uniti, e in particolare determinati programmi che consentono alle autorità pubbliche degli Stati Uniti di accedere ai dati personali trasferiti dall'UE agli Stati Uniti ai fini della sicurezza nazionale, comportino limitazioni alla protezione dei dati personali che non sono configurate in modo da soddisfare requisiti sostanzialmente equivalenti a quelli previsti dal diritto dell'UE”.
Non è questa la sede per giudicare le iniziative del governo a riguardo dell’utilizzo dei pagamenti elettronici per contrastare l’evasione fiscale, ne valutare se utilizzare la carta per pagare ad esempio un caffè (visto che il conteggio per il rimborso inizia da spese che partono da 1 euro) sia eticamente accettabile, ma quello che rileviamo è che nuovamente le iniziative messe in campo dal Governo per digitalizzare le attività si sono rivelate alquanto deficitarie soprattutto per le carenze delle infrastrutture di rete, assolutamente non in grado di reggere ampi e sostenuti volumi di traffico on line.
Un altro dato che è da notare riguarda la differenza di download rispetto all’app Immuni che è stata boicottata da molti utenti preoccupati per la privacy che si presumeva venisse violata, mentre per l’app IO per il cashback, questi stessi utenti non hanno avuto gli stessi dubbi, come se il desiderio di attaccarsi alle mammelle della sovvenzione statale li rendesse liberi da ogni turbamento e dubbio morale.
Svetonio ne “Le vite dei cesari” ci riferisce che l’imperatore Vespasiano rispose al figlio Tito che lo rimproverava per una tassa sugli orinatoi con la frase “non olet” (non puzza – la tassa-).
Da allora la frase viene spesso citata per indicare che non bisogna essere troppo schizzinosi riguardo la provenienza dei soldi e così, ripensando a questa frase, chiudiamo queste riflessioni pensando a tutti quei cavalieri “duri e puri” che si battevano contro Immuni per tutelare la privacy e si sono arresti miseramente a IO.
Bibbliografia:
https://io.italia.it/cashback/privacy-policy/
https://io.italia.it/dashboard/
https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/9442415
https://www.spid.gov.it/richiedi-spid
Sebbene il termine 5G stia ad indicare la quinta generazione di sistemi di telefonia mobile non si tratta di un semplice evoluzione del 4G come i vari passaggi da 2G (il famoso GSM) a 3G, 4G per finire con il 4,5G ma di qualcosa di diverso, come il passaggio tra Etacs che era ancora analogico, al GSM digitale
A metà dell’800 Maxwell elaborò le prime formule matematiche sull’elettromagnetismo che ampliavano e completavano gli studi di Faraday; Le ricerche di Maxell aprirono la porta a tutta una serie di studi di altri scienziati tra i quali vi era il tedesco Heinrich Hertz che nel 1886 costruì un apparecchio in grado di generare onde relativamente lunghe ed un altro che poteva riceverle.
Hertz si dimostrò scettico sull’utilità pratica del suo strumento dichiarando ” È priva di qualunque uso pratico (…) è soltanto un esperimento che prova come il maestro Maxwell avesse ragione…” e a chi insisteva interrogandolo sul suo punto di vista su ciò che poteva accadere come conseguenza della sua scoperta ribadiva :”Nulla presumo”. Per fortuna non tutti la pensavano così e l’esperimento di Hertz portò alla creazione della radio.
Le onde radio sono una radiazione elettromagnetiche e, queste ultime, sono presenti praticamente ovunque in natura: la stessa luce visibile è una forma di radiazione elettromagnetica, come le microonde, i raggi X e le onde radio.
Ma cosa sono le radiazioni elettromagnetiche?
La radiazione elettromagnetica può essere trattata secondo due punti di vista: secondo la teoria ondulatoria e secondo la teoria corpuscolare o quantica. Quella che interessa a noi, in questo momento è la teoria ondulatoria secondo la quale la radiazione elettromagnetica si comporta come un’onda che viaggia alla velocità della luce (c) e può essere descritta in termini della sua lunghezza d’onda λ e della sua frequenza di oscillazione ν dove la lunghezza d’onda è la distanza tra i massimi successivi di un onda, mentre la frequenza (ν) è il numero di cicli completi di un onda che passano per un punto in un secondo e l’unità di misura è chiamata Hertz.
Questi due parametri sono legati dall’equazione: λ = c/ν e da qua ricaviamo che la lunghezza d’onda è inversamente proporzionale alla frequenza ovvero aumenta con il diminuire della frequenza.
Per fare un esempio pratico la luce visibile dall’occhio umano è compresa tra una frequenza che varia dai 400 e 700 nanometri.
Le onde radio hanno una lunghezza che varia dai 10cm ai 10Km, all’interno di questa lunghezza le frequenze che vengono utilizzate per la radiocomunicazione (Tv, Radio, Telefonia mobile, ecc.) va dai 3 kHz e 300 GHz. Fino ad ora, per la telefonia mobile, si sono utilizzate le frequenze che vanno dai 900 Mhz dei 2G (GSM) ai 2600 Mhz dei 4G (LTE) e tutti i telefoni cellulari 4G di ultima generazione sono in grado di passare da una frequenza all’altra a seconda della copertura. Questo tipo di frequenze hanno delle lunghezze d’onda che non vengono assorbite facilmente nel loro cammino da ostacoli di medie dimensioni, come le case o gli alberi e possono essere trasmesse a distanza perché (come dimostrato da Marconi) vengono riflesse dagli strati ionizzati dell'atmosfera. Sebbene tecnicamente il 4G LTE sarebbe in grado di velocità fino a 300 Mbps, in realtà siamo nell’ordine di 5-12 Mbps in download e 2-5 Mbps in upload, con picchi che scendono tra i 5 e gli 8 Mbps (alcuni test di operatori di telefonia italiani nel 2014 sono arrivati oltre i 30Mbps ma erano solo test in condizioni ottimali).
Come potrà allora il 5G riuscire a superare le velocità attuali?
Immaginiamo le frequenze come un triangolo equilatero con la punta verso il basso, le telecomunicazioni utilizzano le frequenze che si trovano vicino alla punta mentre in alto (nella parte larga) sopra i 24Ghz non vi è praticamente traffico; questo è dovuto al fatto che le onde a quella frequenza hanno lunghezza molto corta e quindi non riescono a superare facilmente gli ostacoli.
La tecnologia 5G utilizzerà tre spettri di frequenza: dai 694-790 Mhz, 3,6 e 3,8 GHz per finire con 26,5 e 27,5 GHz.
Nel primo range di frequenza fanno parte anche le trasmissioni di alcuni canali della televisione digitale ed è uno dei motivi (ve ne sono anche altri come il tipo di compressione del segnale), che si dovranno cambiare i decoder dei televisori non predisposti; questo tipo di frequenza è necessario dato che riesce a passare attraverso gli ostacoli normali (alberi, case, ecc.) pur potendo trasmettere parecchie informazioni. Il secondo gruppo di frequenze offre una buona velocità di connessione ma è più soggetta ad essere bloccata dagli ostacoli. Questo lo possiamo verificare anche nelle nostre case: i router casalinghi utilizzano le frequenze 2,4 e 5Ghz, se utilizzo i 5Ghz avrò una “maggiore” velocità nella comunicazione con il router dato che maggiore la frequenza, maggiore è la velocità con cui trasmette i dati, ma il segnale è “più debole”. L’ultimo gruppo di frequenze hanno una lunghezza d’onda più corta delle precedenti e quindi una frequenza maggiore il che si traduce nella possibilità di trasmettere molto velocemente i dati ma che gli ostacoli sul cammino possono bloccare o diminuire di molto il segnale.
La prima conseguenza dell’utilizzo di queste frequenze è quello che per un utilizzo ottimale del 5G sarà necessario aumentare la copertura delle celle presenti sul territorio e che non sempre sarà possibile utilizzare il 5G al massimo delle sue potenzialità. I più penalizzati saranno, quasi sicuramente, gli utenti che vivono nelle zone rurali nelle quali è più difficile posizionare una grande quantità di ripetitori rispetto che nelle città e, se sono presenti anche alberi, difficilmente sarà possibile avere la copertura sopra i 26 Ghz se si è troppo lontani dai ripetitori dato che l’acqua presente nel tronco e nelle foglie tende ad assorbire le onde più facilmente. È probabilmente la banda che verrà utilizzata maggiormente dagli smartphone nel primo periodo di diffusione del 5G sarà quella compresa tra i 3,6 ed i 3,8 Ghz che offrirà comunque una velocità maggiore del 4,5G.
Il fatto che il 5G utilizzi una frequenza così altra ha destato molte preoccupazioni e leggende metropolitane tra gli internauti tanto da creare veri e propri comitati contro l’utilizzo di questa tecnologia. In realtà non succederà, come sostengono molti, che vi sarà un abbattimento indiscriminato di alberi per dare la possibilità al segnale di arrivare facilmente, ma più probabilmente in futuro nascerà una nuova forma di digital divide tra le zone più o meno servite a causa delle pesanti norme esistenti.
Un'altra delle paure infondate che sono nate è che l’utilizzo delle frequenze così alte possano essere dannose per l’uomo e che le onde del 5G possa cuocerci come i forni a microonde.
In realtà è già da parecchi anni che si parla di eventuali danni che i campi elettromagnetici (in particolare l’uso del cellulare) possono generare nell’uomo ma, malgrado quello che dicono i giudici con una recente sentenza della cassazione, non vi sono prove scientifiche di questo e nessuno scienziato ha potuto portare una dimostrazione che questo sia vero.
È vero che i campi elettromagnetici generano calore (come nei forni a microonde) ma questo tipo di onde hanno lunghezze d'onda che vanno da 1 mm a 30 cm, uno spettro che è sotto quello delle radiazioni infrarosse. Tra le organizzazioni internazionali deputate al monitoraggio della salute delle persone solamente l'Agenzia Internazionale per la Ricerca sul Cancro (IARC) ha classificato i campi elettromagnetici a radiofrequenza (CRF) come cancerogeni di gruppo 2B (nella stessa classifica risultano, ad esempio l’estratto di foglie di Aloe e l’estratto di kava), e considera limitato il grado di correlazione tra l'utilizzo intensivo di telefoni cellulari e lo sviluppo di tumori cerebrali, mentre lo considera non dimostrato scientificamente per tutti gli altri tipi di cancro. Bisogna in fine considerare che la tecnologia 5G si basa su antenne adattative che sono caratterizzate non più da una emissione costante di potenza in tutte le direzioni, ma da una emissione “adattativa” in base al numero di utenze da servire, dalla loro posizione e dal tipo di servizio.
Del 5G si è detto e si dirà molto, ma certamente rappresenta un passo avanti nelle telecomunicazioni soprattutto per l’internet delle cose, ma la preoccupazione vera è che questa nuova tecnologia a causa delle sue limitazioni andrà ad aumentare il gap tecnologico che esiste anziché diminuirlo.
Il Consiglio Europeo, dal canto suo, è convinto che la nuova tecnologia favorirà l'innovazione dei modelli commerciali e dei servizi pubblici ma che in paesi come l’Italia, con norme molto restrittive sulla radioprotezione, c’è il rischio di rallentare lo sviluppo delle nuove reti ed invita i paesi membri ad adottare le linee guida dell’ICNIRP (International Commission on Non Ionizing Radiation Protection) che rappresentano il massimo riferimento scientifico del settore.
BIBLIOGRAFIA
Rif.: Ian Stewart, “Le 17 equazioni che hanno cambiato il modno”, Frontiere, edizione 2019, pp.267-287
Rif.: IARC, https://monographs.iarc.fr/agents-classified-by-the-iarc/
Rif.: O.M.S. : https://www.who.int/en/news-room/fact-sheets/detail/electromagnetic-fields-and-public-health-mobile-phones
Rif.: Camera dei Deputati Servizio Studi: https://www.camera.it/temiap/documentazione/temi/pdf/1105154.pdf
Rif: Arpa Emilia-Romagna: https://www.arpae.it/dettaglio_generale.asp?id=4149&idlivello=2145
Il secondo decennio del 21 secolo è appena iniziato e pochi si ricordano che solamente vent’anni fa abbiamo rischiato una piccola regressione digitale.
Questa riflessione nasce da un post che sta girando da qualche giorno sui maggiori social network e programmi di IM che avverte che “Quando scriviamo una data nei documenti, durante quest’anno è necessario scrivere l’intero anno 2020 in questo modo: 31/01/2020 e non 31/01/20 solo perché è possibile per qualcuno modificarlo in 31/01/2000 o 31/01/2019 o qualsiasi altro anno a convenienza. Questo problema si verifica solo quest’anno. Stare molto attenti! Non scrivere o accettare documenti con solo 20. Fate girare questa utile informazione”.
A prescindere dal fatto che in tutti i documenti legali è buona norma (quando non obbligatorio) usare la data in formato esteso, tutti i documenti che prevedono una registrazione prevedono anche una datazione estesa al decennio, fin dai tempi del Millennium Bug.
Ma cosa è stato questo Millennium Bug che tanto ha spaventato alla fine del 1999 il mondo informatico e che è passato senza troppi problemi tanto che oggi c’è chi (i complottisti esistono sempre!) crede che non sia mai stato un reale problema ma un’invenzione atta a far spendere solti alle aziende, agli stati ed ai singoli utenti?
Spieghiamo subito che il termine Bug, in informatica, identifica un errore di programmazione e nel caso del Y2K (come veniva chiamato il Millenium Bug) non si trattava di un errore di programmazione ma di una scelta dettata dalle necessità: all’inizio dell’era informatica e dei personal computer la memoria rappresentava una risorsa così, quando si scrivevano le date, per gli anni si pensò di utilizzare solamente le ultime due cifre che componevano l’anno e non tutte e quattro così 1972 si scriveva 72.
Ma cosa sarebbe successo al cambio di data dalla mezzanotte dal 31 dicembre 1999 al 1º gennaio 2000 nei sistemi di elaborazione dati? Il cambio di millennio avrebbe portato a considerare le date 2000 come 1900 e i problemi che si presentavano erano parecchi, dal valore degli interessi maturati alle date dei biglietti aerei, dal noleggio di automobili ai dati anagrafici dei comuni, dai possibili blocchi delle centrali elettriche alla paura di disastri nucleari.
Per rendere un’idea del panico che venne propagato basta pensare che negli stati uniti vi fu un aumento dell’acquisto di armi e che la stessa unione europea istituì una commissione per l’analisi dei rischi dell Y2K ( https://.cordis.europa.eu/article/id/13568-commissions-analysis-of-the-y2k-problem).
Oggi sappiamo che il problema del Millenium Bug era noto da tempo ad ingegneri e programmatori, molto prima che diventasse un problema mediatico, e che si iniziò a lavorare per evitarne le catastrofiche conseguenze.
La Microsoft con i suoi sistemi operativi Windows95 e Windows98 era preparata e le patch (una porzione di software progettata appositamente per aggiornare o migliorare un determinato programma) che vennero distribuite furono pochissime, non lo stesso per il vecchio window 3.11 che stava in quel periodo terminando la sua vita operativa e che dovette subire parecchi aggiornamenti; i Bios dei computer vennero aggiornati (quando non lo erano già), mentre per i sistemi Linux non si presentarono problemi.
Dire che però tutto filò liscio come l’olio non è esatto, alcuni problemi vi furono e se non diventarono tragedie fu solo perché l’allerta data permise di avere del personale preparato allo scattare della mezzanotte.
Infatti se alcuni problemi come accadde nello United States Naval Observatory che gestisce l’ora ufficiale del paese e sul Web segnò come data il 1 gennaio 1900, o del cliente di un negozio di noleggio video dello stato di New York si trovò sul conto $ 91.250, possono essere considerati fastidiosi in altri casi si rischiò la catastrofe: la centrale nucleare di Onagawa ebbe qualche problema di raffreddamento che scatenò l'allarme 2 minuti dopo mezzanotte, egli Stati Uniti, il sistema di elaborazione dei messaggi della Guardia costiera venne interrotto, alle Hawaii vi furono interruzioni di corrente.
Più tragico fu quanto accadde a Sheffield, nel Regno Unito, dove ci furono valutazioni errate del rischio per la sindrome di Down inviate a 154 donne gravide e vennero effettuati due aborti come risultato diretto del Y2K (dovuto ad un errore di calcolo dell'età della madre), mentre quattro bambini affetti da sindrome di Down sono nati da madri a cui era stato detto che si trovavano nel gruppo a basso rischio ovvero che le possibilità che succeda una cosa del genere era pari a zero.
A vent’anni di distanza possiamo dire che se il Millenium Bug non ha causato danni catastrofici non fu perché il problema non esisteva o era una bufala, ma perché, seguendo il principio di precauzione, sotto spinta del governo americano che aveva riconosciuto che un singolo governo non sarebbe riuscito a intervenire in prima persona ovunque fosse stato necessario e che il rischio potenziale era troppo elevato per poterlo ignorare, aveva coinvolto tutta la società e altri stati tramite un sistema di cooperazione: era impossibile stabilire a priori quali e quanti danni potevano essere arrecati quindi le istituzioni, mentre si preparavano per ogni evenienza, dovevano informare il pubblico sui rischi, e mettere pressione alle aziende affinché iniziassero una politica per evitare i danni del Y2K.
Anche se non tutti i governi investirono nello stesso modo (l’Italia fu il fanalino di coda nell’Eurozona) la comunicazione e l’allarme di massa aveva funzionate e man mano che si procedeva l’aggiornamento dei software e dei Bios, il rischio si riduceva.
Oggi lo stesso tipo di allarme che vent’anni fa venne dato per il Millenium Bug viene dato per il riscaldamento globale ed il cambiamento climatico: dopo che i tecnici del settore (scienziati, fisici, climatologi, ecc.) hanno per devenni avvertito dei rischi intrinsechi derivati dal climate change anche nell’opinione pubblica si sta sviluppando la preoccupazione per un simile futuro.
Ma mentre per l’Y2K le preoccupazioni erano più tangibili ed economicamente capibili quali il pagamento degli interessi sulle azioni, la sicurezza dei sistemi di difesa statali, la sicurezza dei voli o il corretto funzionamento delle centrali nucleari, per il cambiamento climatico i problemi sono più astratti o a più lunga scadenza e lontani dalla reale percezione.
Se si considerasse il problema del cambiamento climatico come fu considerato alla fine del XX secolo il Millenium Bug sarebbe forse più semplice affrontare risolvere il problema.
Il 2019 è ormai quasi finito ed il 2020 è alle porte, così è interessante tirare le somme di quest’anno online con tutti i suoi pregi e difetti.
Se, infatti, il Global Digital Report ci mostra una crescita di un 10% degli utenti internet online rispetto all’anno precedente (circa 400 milioni di utenti in più), soprattutto dai paesi emergenti e dall’Africa, la maggior parte di essi appaiono utenti principalmente social.
“We are Social” verrebbe quindi da dire ma attenzione perchè ci sono delle novità: Facebook ha visto solo una crescita di circa 8 milioni di nuovi utenti tra luglio e settembre 2019, mentre è in netta crescita l’uso di programmi di instant messaging (che vengono ormai equiparati a social network), dovuti all’uso di dispositivi mobili come principale mezzo per accedere al web. I dati mostrano una crescita del 51% di utilizzatori di smartphone, contro solamente un 44% di utenti che utilizzano il computer, mentre l’uso di tablet è sceso al 3,6% (un calo del 13%).
Malgrado il calo di visitatori Facebook rimane ancora il 3° sito web più visitato al mondo, subito dopo Google e Youtube, pur rimanendo la query di ricerca più richiesta sul motore di ricerca Google e mantiene ancora il primato come social network con il maggior numero di utenti attivi, seguito da Youtube e Watsapp.
Pur essendo leggermente superiore il numero di utenti di sesso maschile che utilizzano il social network di Zuckerberg le donne sembrano più attive avendo un maggior numero di commenti postati, link condivisi e Like assegnati ai post.
Rimanendo sempre in area solamente social network (non considerando i programmi di Istant messaging come tali) il secondo per utenti attivi risulta essere Instagram, sempre di proprietà di Zuckerberg, i cui utilizzatori hanno, per la maggior parte, meno di 30 anni, mentre Twitter mostra un lento ma continuo aumento di utilizzatori dovuto probabilmente al differente tipo di utilizzo e alla censura meno severa, così come Linkedin.
Abbiamo detto che vogliamo considerare i programmi di messaggistica istantanea separatamente dai social network e qua vediamo che a farla da padrone è sempre Facebook che con il suo Messenger ed il suo whatsapp ha il 90% del mercato, mentre i suoi “concorrenti” come Telegram o Viber sono quasi inesistenti o con un target geograficamente limitato, mentre resiste Wechat che in Cina è praticamente il padrone assoluto. Da segnalare che negli ultimi mesi dell’anno TikTok ha avuto un impenno diventando la terza app più scaricata (Whatsapp è solamente la 4°) e che, se confermato il trend, sarà un valido rivale per il 2020 ai programmi di Zuckemberg.
Interessante è anche il modo che hanno gli utenti di utilizzare il web; come abbiamo detto all’inizio di questo articolo la maggior parte degli utenti utilizza i dispositivi mobili e questa metodologia permette di utilizzare i comandi vocali più agevolmente che non su di un PC, così il 50% degli utilizzatori che hanno tra i 16 ed i 34 anni preferiscono usare il riconoscimento vocale per interagire con il web, mentre questa metodologia di utilizzo tende a scendere con l’aumentare dell’età attestandosi ad un 21% per utenti che vanno dai 55 ai 64 anni.
Per quanto riguarda i tempi di utilizzo del web sembra che (a livello mondiale) si passi in media 6 ore al giorno connessi tra App, Navigazione, Messaggistica e mail; per fortuna non tutto il tempo è passato sui social media (come alcuni servizi sui media tradizionali possono portare a pensare) e si va dai soli 36 minuti al giorno per gli utenti di internet in Giappone ad un massimo di 4 ore medie per gli utenti Filippini.
Infatti i dati di GlobalWebIndex mostrano che il 98% degli utenti internet che ha visitato un social network nell’ultimo mese solo l’83% è risultato un utente attivo e non solo fruitore passivo e che molti di loro utilizzano il social network anche per lavoro.
Fino ad ora abbiamo trattato di dati a livello globale, ma come ce la passiamo noi Italiani?
Per prima cosa diciamo che il 92% (54 milioni) degli abitanti del bel paese è connesso ad internet il che fa di noi uno dei paesi europei più digitalmente connessi. Quasi il 60% dei 54 milioni di utenti online è attivo sui social network e poco più della metà di questi accede ai social via dispositivo mobile (Smatphone).
Il tempo che noi passiamo online è anche quello sopra la media che infatti per noi Italiani arrivia a sei ore medie giornaliere mentre tra le query di riceca più utilizzate ci sono le parole Meteo, Facebook, Youtube, Google e Traduttore.
Il campione considerato va dai 16 ai 64 anni, e ci mostra un utilizzo online principalmente per la visione di video (92%), mentre l’utilizzo dei comandi vocali da noi si attesta ad un semplice 30%.
Dal report risulta poi i cittadini del bel paese amano chiacchierare, tanto che risulta l’uso principale del web per i programmi di messaggistica con whatsapp (84% di utilizzatori) che la fa da padrone, seguito da Facebook messenger (54%), mentre Youtube, con il suo 87% di utilizzatori, risulta il social network più seguito incalzato da Facebook (81%) e, a distanza, da Instagram con solo un 55%.
Ma cosa guardano gli Italiani su Youtube? Principalmente musica: tra le ricerche, infatti, la classifica vede in pole position le canzoni, seguite dai film e quindi dal gioco Fortnite.
Solamente 11% degli utilizzatori dei social, poi, dichiarano di utilizzarli anche per lavoro a dimostrazione che in Italia vengono utilizzati come canale panacea di svago.
Su di un piano puramente “sessista” vediamo che, mentre tra facebook e instagram la differenza di utenti di un sesso anzichè l’altro non è molto differente (su Facebook gli uomini superano leggermente le donne e su instagram l’inverso) su Twitter sono gli uomini a farla da padroni con un 68% di utilizzatori.
Nell’era del web 2.0 e della digital revolution sapere come ci comportiamo online, quali App si scaricano o Quali siti si visitano, nonché il metodo di utilizzo della tecnologia, rappresenta uno specchio della società né più né meno delle statistiche ISTAT che ogni anno ci vengono presentate come specchio della società. Queste analisi dei comportamenti dove la differenza tra vita reale e vita virtuale non rappresenta più due elementi separati ma un unico elemento della vita delle persone è una rappresentazione che riguarda tutti noi e non sono più solo uno strumento di statistica per creare marketing online utilizzato dagli operatori del settore.
Un’ultima cosa che appare (e che dovrebbe preoccuparci!) dal report sull’utilizzo del web nel 2019 è la centralizzazione che Facebook sta operando nel settore della messaggistica istantanea e che è quasi a livello di monopolio.
Riferimenti: https://datareportal.com/reports/digital-2019-q4-global-digital-statshot
A luglio 2019 Microsoft ha pubblicato un report che elenca le principali aziende che si occupano del tracking dei comportamenti dell’utente sui siti per adulti. Dalla ricerca emerge che Facebook, Google, Oracle e Cloudflare sono tra le aziende più attive in tale settore.
Non deve stupire questo, visto che questi siti utilizzano il tracking dei visitatori e dei naviganti per indirizzare gli advertisment sulle pagine web e per creare il loro introito. Dal report risulta che 93% dei siti analizzati utilizzano script che registrano le abitudini di navigazione degli utenti e, di questi dati, il 74% viene inviato a Google, il 24% ad Oracle, il 10% a Facebook ed il 7% a Cloudflare.
Ma la cosa che dovrebbe preoccupare chi naviga (non solo nei siti per adulti) è che solamente solo una piccola parte di questi cookies (meno del 20%) invierebbe i propri dati sfruttando algoritmi di crittografia e quindi in maniera sicura. Per rendere un’idea di quanto possano essere invasivi i cookies di tracciamento basta pensare che alcuni antivirus e anti-malware li considerano come elementi malevoli!
Sulla base di quanto sopra detto si potrebbe pensare che utilizzare un servizio di VPN oppure di Tor durante la navigazione permetta di risolvere i problemi di privacy e di mantenere l’anonimato ma non è proprio così.
Un recente un articolo che Sven Slootweg (uno stimato sviluppatore indipendente) ha pubblicato sul suo blog personale ha infatti scoperchiato un vaso di cui già i programmatori conoscevano il contenuto ossia che utilizzare una VPN non garantisce l’anonimato.
Spieghiamo subito, per chi non lo sappia, cos’è una VPN.
Se cerchiamo su wikipedia cosa sia una VPN la cosa che la maggior parte degli internauti capisce è che in italiano questo termine è la traduzione di rete privata virtuale ma del resto, probabilmente, capirebbe assai poco. Se si cerca su youtube o su internet si è portati a identificare le VPN con la navigazione anonima e con la possibilità di fare quello che si vuole online senza il pericolo di essere scoperti.
In realtà, come dice Slootweg la VPN non è altro che un server proxy glorificato dalla maggior parte degli utilizzatori di internet.
Quando un utente “naviga” su di un sito web si collega al proxy (un computer remoto) e gli invia le richieste, il proxy si collega al server ospitante il sito web e gli inoltra la richiesta dell’ utente; una volta ricevuta la risposta, il proxy la manda al client richiedente.
Solitamente l’utilità di un proxy consiste nel fatto che velocizza la navigazione in quanto i siti visitati recentemente da qualunque utente di quella rete, vengono memorizzati nel proxy che in questo modo evita di scaricarli nuovamente e possono essere ricevuti alla massima velocità permessa dalla propria connessione.
Tramite un Poxy è anche possibile, per i provider internet o per le autorità giudiziarie dei vari paesi, bloccare l’accesso a taluni siti web o applicazioni online.
In pratica un proxy non è altro che un ponte tra l’utente e il sito web interessato.
Visto che i proxy, nella maggior parte dei casi, sono gestiti direttamente dai provider di accesso internet questi memorizzano la navigazione di un utente associando il suo indirizzo ip ( indirizzo che viene assegnato ad una macchina quando si collega alla rete internet) e gli indirizzi che visita.
Una VPN lavora, in un certo senso, allo stesso modo: agisce come un tunnel tra due diverse reti quella dell’utente e quella che intende raggiungere (per questo le VPN sono spesso utilizzate nel darkweb, dato che permettono di raggiungere anche reti non raggiungibili dal normali canali), bypassando il fornitore di accesso ad internet di un utente.
Il problema che anche i server delle reti VPN memorizzano in un log la navigazione che viene fatta da un utente, se non altro per potersi eventualmente tutelare da eventuali azioni giudiziarie, ma non c’è nessuna certezza di quali utilizzi il gestore del server VPN faccia dei nostri log, se li vende ad agenzie di advertisment, o se utilizzi la connessione di un utente alla VPN per scopi non legali.
Ogni utente che utilizza una VPN è infatti collegato ai loro servizi tramite il proprio indirizzo IP e se qualcuno vuole intercettare la connessione basta che lo faccia un qualsiasi altro punto, come quando si collega o si scollega alla VPN.
Inoltre, sebbene la connessione ad una VPN sia criptata non sempre lo è il trasferimento di informazioni con un sito, come nel caso dell’invio di dati dai form, non tutti i siti web hanno la criptazione dei dati (vedere l’articolo https://www.filoweb.it/magazine/31-da-HTTP-a-HTTPS-).
Per finire per i moderni metodi di tracciamento l’indirizzo ip dell’utente sono meno rilevanti che nel passato e le grandi compagnie di marketing online utilizzano altre metriche per tracciare il profilo di chi utilizza un servizio e la sua identità.
A questo punto viene da chiedersi per quale motivo esistono le VPN se sono così poco sicure.
Bisogna prima di tutto considerare che le VPN sono nate per scopi aziendali, per dare modo ai dipendenti di accedere alle infrastrutture di un network privato da qualunque parte del mondo essi si trovino, la possibilità di essere utilizzate in ambito privato per dare l’idea di una navigazione anonima ha dato il via ad un business. La maggior parte dei servizi VPN disponibili sono a pagamento mentre quelli gratuiti sono pochi e consentono una limitata lista di utenti connessi contemporaneamente.
Si può scegliere di utilizzare una rete VPN nel caso ci si trovi ad utilizzare quella che viene definita connessione non sicura, come nel caso di aeroporti o stazioni o comunque connessioni wi-fi aperte, ma se il nostro intento è quello di navigare nel più completo anonimato allora rimane solo una sicurezza emotiva.
Quando Linus Torvald nel 1991 ideò un proprio sistema operativo per testare il suo nuovo computer a 32 bit non pensava certo che avrebbe creato una rivoluzione nel mondo dell’informatica e di rimanere, nel contempo, sconosciuto alla maggior parte delle persone comuni.
La prima volta che sentii parlare di linux avevo poco più di vent’anni ed era al corso di informatica di ingegneria dell’università di Padova; fino ad allora la mia conoscenza dei computer era quella che avevo maturato durante gli anni sui computer a 8 e 16 bit (Comodore, MSX, ecc) e sul mio PC 8088 con sistema operativo DOS che, con grande disappunto, scoprii di dover cambiare per poter installare ed utilizzare quel sistema operativo da casa anziché i computer dell’università.
Per chi volesse approfondire la genesi di questo sistema operativo consiglio il bellissimo libro di L. Torvald e D. Diamond “Rivoluzionario per caso. Come ho creato Linux (solo per divertirmi)”, mentre chi vuole sapere quale importanza ha avuto questo progetto nel mondo dell’informatica e come mai grandi nomi dell’informatica si stiano sempre più avvicinando al mondo dell’Open Source consiglio di proseguire con la lettura di questo articolo.
Visto che il nome completo di linux è GNU/Linux, per capire di cosa parleremo, bisogna prima di tutto chiarire il concetto di software libero e di cosa significa quell’ acronimo ricorsivo che precede il nome del sistema operativo.
Nel 1985 l’informatico Richard Stallman fondò un’ organizzazione senza fini di lucro per lo sviluppo e la distribuzione di software libero, in netto contrasto con il mercato dei software protetti che si stava sviluppando. L’idea di base era che un codice sorgente deve essere pubblico per poter essere modificato in base alle necessità di chi lo utilizza. In realtà l’idea di Stallman era già nata l’anno prima con il progetto GNU ("GNU's Not Unix") per creare un sistema operativo Unix like libero nell’utilizzo e libero di essere modificato a piacimento. Purtroppo l’idea di Stallman non riuscì per molti anni a realizzarsi in quando non era ancora stato sviluppato un Kernel1.
Nel 1991 un giovane studente di informatica dell’università di Helsinki passò l’estate chiuso in camera sua a creare un proprio sistema operativo per testare il suo nuovo computer basato su processore i368 e, una volta finito di elaborare il progetto, lo mise in rete (all’epoca la maggior parte degli utilizzatori di internet erano nerd, studenti, professori universitari, organizzazioni governative) per condividerlo chiedendo solamente che gli venisse mandata una cartolina da coloro che provavano e apprezzavano il suo lavoro; questo studente era Linus Torvald che in breve tempo si ritrovò la camera piena di cartoline da tutto il mondo!
Torvald decise di distribuire il suo sistema operativo sotto la licenza Open Source che è caratterizzata da quattro principali caratteristiche: libertà di eseguire il programma per qualsiasi scopo, libertà di studiare il programma e modificarlo, libertà di ridistribuire copie del programma, libertà di migliorare il programma e di distribuirne pubblicamente i miglioramenti. Da allora Linux si è sviluppato tramite molti collaboratori che vedendone il codice lo migliorano, lo implementano e lo ridistribuiscono, mentre il suo creatore mantiene solo il ruolo di coordinare e decidere quali migliorie possono essere implementate e ridistribuite.
La nascita di Linux coincide anche con due grandi momenti della storia dell’informatica: la grande distribuzione e disponibilità di computer presso gli utenti finali e la diffusione di Internet.
Molte aziende di software iniziarono a distribuire versioni personalizzate di Linux (per questo quando si parla di questo sistema operativo si parla di distribuzione mentre quando si parla di versione ci si riferisce alla sola versione del Kernel) facendo pagare solo il costo del supporto (nel caso venga distribuito su CD) e dell’assistenza.
Visto che linux è un sistema operativo Unix-Like ci si accorse subito di quanto era indicato allo sviluppo dei server e, avendo un prezzo pressoché nullo, ottenne un grande successo nei primi internet provider che offrivano accesso alla rete e che ospitavano i primi siti web che stavano nascendo, permettendo di abbattere i prezzi ai fruitori di tali servizi. Per fare un esempio consideriamo che senza Linux, oggi, non avremmo Facebook, Twitter e moltissimi social network che sono nati inizialmente su hosting linux visto il budget limitato dei loro creatori; allo stesso modo il sistema operativo Android (che equipaggia la maggior parte degli smartphone in circolazione) è stato sviluppato da Google sul kernel Linux 2.6 e 3.x ed è per la maggior parte (a parte alcuni firmware2 proprietari) un progetto open source coordinato da Google che prende il nome di “progetto Open Source Android”.
Negli ultimi vent’anni sono state sempre di più le aziende che hanno abbracciato più o meno completamente, il mondo dell’Open Source. Un esempio eclatante è quello della storica azienda americana IBM che ha iniziato ad avvicinarsi all’Open Source fin dal 2004 quando al Linux World Conference & Expo a San Francisco, Nick Donofrio, senior vice president of technology and manufacturing di IBM, ha fatto sapere che Big Blue “non ha nessuna intenzione di usare i brevetti in possesso per attaccare Linux”.
In quel tempo, infatti, IBM deteneva circa 60 brevetti che si supponeva Linux potesse infrangere. La speranza di Donofrio, all’epoca, era anche che altre aziende seguissero l’esempio di IBM, poiché prevedeva una notevole diffusione del movimento open source nella decade successiva. Nel 2013 Big Blue sancisce la nascita della OpenPOWER Foundation, una comunità tecnica aperta, basata sull’architettura Power di IBM, il cui obiettivo è creare un ecosistema open, disposto a condividere competenze, investimenti e proprietà intellettuale di classe server, per facilitare l’innovazione a livello hardware e software e semplificare la progettazione dei sistemi.
L’open source è stato anche alla base di uno dei progetti informatici sociali più rivoluzionari a livello mondiale: “One Laptop Per Child” (http://one.laptop.org/) ideato da Nicolas Negroponte.
OLPC è un'organizzazione no-profit che si prefigge come scopo aiutare i bambini più poveri del mondo attraverso l'istruzione e, per raggiungere questo l'obiettivo, l’intenzione è di fornire ad ogni bambino un laptop robusto, a basso consumo, connesso ad internet ad un prezzo di solo 100$ (in realtà la prima fornitura di computer nel 2007 ebbe un costo di 130$ al pezzo). È chiaro che senza un sistema che sta alla base open source non sarebbe mai stato possibile riuscire in questo intento e molti altri progetti open source (come wikipedia) hanno offerto la loro collaborazione al progetto. Malgrado l’idea però il progetto non riuscì mai ad emergere completamente in quanto l’avvento degli smartphone economici (che utilizzano sempre sistemi operativi open source) fa sembrare inutile la creazione di un computer con quelle caratteristiche.
L’ultimo annuncio importante nel mondo dell’open source viene dall’azienda cinese Huawei che, dopo le dichiarazioni del presidente USA Trump su eventuali embarghi americani, ha iniziato la prima distribuzione di personal computer laptop con sistema operativo Linux anziché windows (con un risparmio notevole per l’utente finale che non deve pagare la licenza) e che, nel contempo, sta sviluppando un suo sistema operativo per i suoi smartphone, sempre basato sul kernel di Linux e sempre Open Source.
Visto che sempre più app e servizi si stanno spostando all'interno del mondo delle web app questa potrebbe essere una buona occasione per favorire la diffusione di sistemi operativi alternativi a Windows?
D’altronde sono sempre più le aziende, pubbliche o private, che stanno passando al software libero: nel giugno del 2019 il CERN (lì dove è nato il World Wide Web!) ha avviato un ambizioso piano di trasformazione del suo reparto IT per sganciarsi dalle insostenibili richieste economiche del software a codice chiuso fornito da Microsoft (che non fornirà più le licenze accademiche al centro ricerche) e passare a software Open Source, così come ha già fatto il governo sud coreano e così come stanno facendo molte pubbliche amministrazioni che sono, inoltre, obbligate a rilasciare in formato open source il software che loro stesse sviluppano.
La stessa Microsoft, che per anni si è battuta per le licenze software chiuse, d’altronde, ha iniziato un lento avvicinamento al mondo dell’open source entrando nella Linux Foundation con un esborso annuo di 500 mila dollari che le permette di sedere nel consiglio d’amministrazione della fondazione.
Alla fine degli anni ’90 del secolo scorso Microsoft e Linux erano visti come due mondi opposti ed erano considerate dai loro utilizzatori scelte di vita piuttosto che semplici opzioni informatiche, tanto che nel 2001 l’allora CEO di Microsoft Steve Ballmer definì Linux come un “cancro”, mentre oggi, con l’entrata di Microsoft nella Linux Foundation, Scott Guthrie (Vice President di Microsoft Cloud ed Enterprise Executive) commenta: “Linux Foundation è la casa non solo di Linux, ma anche dei progetti più innovativi della comunità open-source. Siamo entusiasti di aderire alla Linux Foundation”.
Così anche Microsoft, insieme a grandi aziende come Cisco, Fujitsu, HPE, Huawei, IBM, Intel, NEC, Oracle, Qualcomm, Samsung, Google e Facebook entra a far parte del mondo Open Source anche se questo non vuol dire che Windows e Office saranno distribuite gratuitamente.
L’avvicinamento di Microsoft al mondo Open è stato graduale e continuo, seppur lento. Per fare un esempio il 40% delle macchine virtuali su Azure (il cloud Microsoft per lo sviluppo) sono basate su Linux, mentre Windows 10 versione per sviluppatori contiene strumenti software open source che provengono sempre dal mondo Linux: dalla Bash (la classica shell o prompt dei comandi), agli strumenti di sviluppo che possono essere integrati dentro Windows 10 accanto ai classici di Microsoft come PowerShell, Chakra Core e Visual Studio Code. Da qualche tempo, inoltre, Microsoft ha stretto una partnership con Canonical per portare Ubuntu (una delle più famose distribuzioni Linux) su Windows 10.
Nel giugno del 2018 Microsoft ha acquistato il principale social network per gli sviluppatori, github.com, ad un prezzo di 7,5 miliardi di dollari quando nel 2016 il servizio ha incassato solamente 98 milioni di dollari in nove mesi, a fronte di una valutazione del 2015 che vedeva GitHub quotato due miliardi di dollari. Perché allora Microsoft ha pagato così tanto questa piattaforma che sviluppa essenzialmente progetti Open Source?
Su questa piattaforma sono attualmente ospitati 80milioni di progetti software ed è utilizzata da 27 milioni di utenti, per la maggior parte sviluppatori. Se si considera che negli ultimi dieci anni non è emersa nessuna infrastruttura software a livello di piattaforma dominante in forma chiusa o proprietaria, ma tutte sono nate da idee e progetti open source (come ad esempio MongoDB) e che moltissime app si basano su piattaforme open source, è facile immaginare che la scelta di Microsoft sia soprattutto quella di invogliare gli sviluppatori ad utilizzare le sue piattaforme (come Azzure) piuttosto che voler vendere più software. Ecco quindi che alcuni programmi per lo sviluppo, come Visual Studio, sono messi a disposizione da Microsoft nella versione base libera di essere scaricata ed installata, mentre per le versioni superiori si continua a dover pagare la licenza; Visual Studio Code viene distribuito con licenza permissiva e alcuni dei componenti core di .NET vengono rilasciati addirittura con licenza open source.
È facile supporre che, dopo aver perso la sfida nel mondo degli smartphone, Microsoft non intenda ripetere la stessa esperienza nel mondo dello sviluppo dei software ed abbia intenzione di avviare quel processo che IBM ed altre aziende hanno già iniziato: dal 2016, infatti, il software open source è alla base dei quattro pilastri – mobility, cloud, social business e big data3 – della trasformazione digitale in atto.
1 Il kernel è il componente centrale di ogni sistema operativo che ha il compito di fare da ponte tra le componenti hardware di un computer – come processore, RAM, hard disk, ecc. – e i programmi in esecuzione sulla macchina.
2 Il firmware non è altro che un particolare tipo di programma, normalmente memorizzato su una piccola memoria non volatile (quindi una rom) , posto all’interno di un computer, di uno smartphone, di un tablet, di un masterizzatore, di una smart TV e in quasi tutti i dispositivi elettronici, con il compito di far correttamente avviare il dispositivo e di far dialogare l’hardware con il software.
3 Con il termine Big Data si intende la capacità di usare la grande quantità di dati che vengono acquisiti (solitamente online attraverso i social network, la navigazione, lo scarico di file, ecc.) per elaborare, analizzare e trovare riscontri oggettivi su diverse tematiche.
"Video killed the radio star" cantavano nel 1979 i "The Buggles", riferendosi al fatto che la televisione stava soppiantando gli altri media, in particolare la radio. Naturalmente, all'epoca, Trevor Horn e Geoffrey Downes non si immaginavano che anche la televisione sarebbe stata soppiantata da un nuovo media che ha rivoluzionato il concetto stesso di comunicazione: i social network!
Nel 2018 i servizi web più utilizzati sono stati: Google, Youtube, Facebook, Whatsapp, Messenger ed instagram. Questo vuol dire che due società (google e facebook) veicolano la maggior parte del traffico internet.
Se guardiano statistiche delle 50 aziende più grandi del mondo per capitalizzazione di borsa vediamo che Alphabet (l'holding che comprende Google, Youtube ed altre controllate) e Facebook (a cui appartengono, oltre che all'omonimo social anche, i servizi Whatsapp, Messenger ed il social instagram) sono tra le prime 10; la domanda è: "cosa producono Google, Youtube, Facebook, Messanger, whathaspp ed instagram?"
Tralasciando che nella holding Alphabet fanno parte anche altre società che si occupano di ricerca e sviluppo, tra le quali il sistema operativo Android, la risposta per i singoli servizi citati è: pubblicità!
I ricavi dei maggiori servizi di internet sono dati dalla pubblicità, quindi dal numero di utenti che riescono a raggiungere.
Fin qua non ci sarebbe nulla di preoccupante (la pubblicità è sempre esistita tanto che si trovano addirittura tracce di reclame anche su alcune mura dell'antica pompei) se non fosse che una ricerca del novembre 2016, firmata dalla Graduate School of Education dell'università di Stanford, in California (https://purl.stanford.edu/fv751yt5934), ha dimostrato che i giovani, in particolare i millenials, che dovrebbero essere tra le generazioni digitalmente più smaliziate non sanno distinguere un contenuto comune da una pubblicità anche se vi è indicata la scritta "adv" o "Contenuto sponsorizzato", a meno che non sia presente il marchio di un brand conosciuto o un prezzo; sempre secondo questa ricerca credono che il primo risultato trovato con google sia il più autorevole ed il più affidabile ( mentre spesso è un contenuto sponsorizzato!), si lasciano attrarre dalle immagini.
In Italia oltre il 90% degli studenti tra i 15 ed i 24 anni sta online, ma di questi il 35% dichiara di avere competenze digitali di base, mentre il 33% di averle basse, il che vuol dire non che non sanno programmare ma che il 35% non sa nemmeno districarsi al di fuori delle procedure abituali.
Tornando per un momento ai social vediamo che facebook, nel mondo, ha circa 2 miliardi di utenti, dei quali il 66% usa il social network tutti i giorni, segue Youtube con 1,5 miliardi, seguono Whatsapp e messanger con poco più di un miliardo di utenti mensili e in fine instagram con circa 700 milioni.
Il 51% degli utenti di internet usa i social network per raggiungere le notizie, per lo più tramite cellulare; tra i giovani tra i 18 ed i 24 anni la rete è lo strumento preferito per accedere alle notizie, mentre la televisione viene al secondo posto (Reuters Institute, University of Oxford: http://www.digitalnewsreport.org/interactive/).
Vediamo quindi che, da un lato, ci sono tra gli utenti quindi due grandi referenti per lo stare in rete e cercare notizie e sono Facebook e Google, due società che hanno i loro guadagni dalla pubblicità e dal maggior numero di utenti che riescono a raggiungere, mentre dall'altro abbiamo i ragazzi (e non) che, se difficilmente riescono a distinguere un contenuto sponsorizzato da un post, di certo faranno ancora più fatica a distinguere una notizia vera da una falsa.
I social network non hanno nessun interesse a verificare e controllare la qualità dell'informazione che viene veicolata. Nel settembre 2017, rispondendo alle accuse di Trump, secondo il quale il social network Facebook gli era contrario, Zuckemberg risponse :" Internet è il modo primario in cui i candidati hanno comunicato, dalle pagine facebook con migliaia di folowers, centinaia di milioni sono stati spesi per la pubblicità… I nostri dati dimostrano il nostro grande impatto sulla comunicazione"; quasi che il solo fatto che Facebook abbia un grande impatto sulla comunicazione ne giustifichi non solo l'esistenza ma anche il fatto che sai libero di fare quello che vuole.
"Da un grande potere derivano grandi responsabilità", questo si leggeva nella vignetta conclusiva di Spider-Man su Amazing Fantasy n.°15, e questo è quello che dovrebbe essere.
Purtroppo non sembra essere così con i social media: malgrado le assicurazioni che sono state fatte negli anni per arginare il problema poco è stato realmente fatto, e in un mercato dove la concorrenza è praticamente inesistente e non vi sono regole i social network possono fare quello che vogliono e, visto che sono società per azioni, il loro scopo è fare soldi.
Non è facile creare delle regole per poter gestire le informazioni in rete senza rischiare di limitare la libertà di informazione come, ad esempio, avviene in Cina dove molti siti e social sono costretti a sottostare alla censura dello stato o a non essere visibili. Bisogna costringere i gestori dei social media ad autogestirsi, verificare e controllare quello che viene pubblicato, pena il ricorso a delle sanzioni.
Una cosa simile è stata fatta per quando riguarda la pubblicazione di contenuti coperti da copyright, dove il gestore di un social è tenuto a controllare ed eventualmente cancellare il contenuto pubblicato quando questo violi un copyright.
Perché non è possibile allora farlo anche per tutti i post?
Durante le elezioni presidenziali americane del 2016 centinai di siti diffondono quelle che vengono definite Fakenews che favoriscono l'elezione di Trump. La maggior parte di questi siti si trovavano in macedonia e non avevano nessun interesse al che vincesse un candidato anziché un altro ma, tramite google AdSense ( il sistema di google che permette di inserire spazi pubblicitari all'interno del proprio sito), sono arrivati a guadagnare fino a 5000 euro al mese!
Inutile dire che il colosso di Mountain View non controlla dove la sua pubblicità compare ma solo che compaia; dei proventi della pubblicità una piccola parte va al gestore del sito, una grande parte a Google.
Il gestore del sito ha quindi grande interesse che vi sia un gran numero di visitatori, maggiore è il numero di visitatore, maggiore la pubblicità che compare, maggiori i suoi introiti, così come per Google.
In Italia il sito di Buzzfeed nel 2016 ha pubblicato un'inchiesta giornalistica sulla disinformazione prodotta in Italia dal Movimento 5 Stelle e sui legami del partito di Beppe Grillo con diversi siti di news (https://www.buzzfeed.com/albertonardelli/italys-most-popular-political-party-is-leading-europe-in-fak?utm_term=.uhv695Bmk#.qkGP7kZry) , il risultato di questo tipo di informazione, insieme all'uso intensivo che i candidati hanno fatto di Facebook durante la campagna elettorale, come strumento di propaganda, ha influenzato le elezioni politiche del 2018.
Così come uno stato ha l'obbligo di tutelare la salute dei suoi cittadini, così anche nel settore della comunicazione online, in mancanza di una vera concorrenza nel settore che autoregoli la qualità dell'informazione come succede nell'editoria, nella radio e nella televisione, è lo stato, o meglio gli stati, che dovrebbero creare regole che, pur rispettando i dettami delle singole costituzioni, atte a tutelare i propri cittadini.
Anche le aziende, dal canto loro, dovrebbero iniziare a sensibilizzarsi su questo fenomeno così come gli utenti. Abbiamo iniziato a valorizzare i prodotti che vengono fatti senza sfruttare la manodopera nei paese in via di sviluppo, penalizzare le aziende che sfruttano i bambini per la confezione dei vestiti o delle tecnologie, perché non possiamo iniziare a segnalare quelle aziende che fanno comparire la loro pubblicità online sui siti che non lo meritano?
La soluzione, per poter arginare l'anarchia informativa che regna online passa quindi da due strade (visto che in tanti anni le aziende interessate non hanno fatto nulla per risolvere il problema): sanzioni da parte delle autorità direttamente proporzionale al numero di utenti che raggiunge un social network direttamente o indirettamente, e creazione di una coscienza sociale come per i prodotti ecosostenibili, ad impatto zero o che non sfruttano le popolazioni locali, magari con un certificato di qualità.
Il pensiero computazionale è un processo mentale per la risoluzione di problemi che permette di operare a diversi livelli di astrazione del pensiero. Il miglior modo per sviluppare il pensiero computazionale, ad oggi, è tramite il coding. Il termine coding, in italiano, si traduce con la parola programmazione, ma questa traduzione letterale limita molto quello che è il concetto già di per sé molto astratto della parola stessa e l’uso che ne viene fatto.
Abbiamo iniziato affermando che il coding è il miglio modo per sviluppare il pensiero computazionale. Vediamo di approfondire la spiegazione di cosa sia il pensiero computazionale, prendendo spunto da un articolo di Jeannette Wing ( professoressa di “Computer Science” alla Columbia University) del 2006:
“Computational thinking is a fundamental skill for everyone, not just for computer scientists. To reading, writing, and arithmetic, we should add computational thinking to every child’s analytical ability.
...
Computational thinking involves solving problems, designing systems, and understanding human behavior, by drawing on the concepts fundamental to computer science. Computational thinking includes a range of mental tools that reflect the breadth of the field of computer science.” (http://www.cs.cmu.edu/~15110-s13/Wing06-ct.pdf)
Come afferma la professoressa il pensiero computazionale è un metodo di pensare che si può applicare poi nella vita di tutti i giorni e nei rapporti con le altre persone, non è quindi solo un metodo per “imparare a programmare” come affermano i meno informati.
Il coding permette di mettere insieme diverse necessità delle varie discipline scolastiche: come in grammatica bisogna seguire correttamente una sintassi e delle regole, come in matematica è importante impostare la procedura risolutiva di un problema, sempre come in matematica ed in musica bisogna saper leggere e scrivere usando linguaggi simbolici e, come quando si scrive un testo di italiano, è necessario scrivere un testo corretto, comprensibile ed espressivo.
Agli inizi degli anni ’60 il professor Seymour Papert del mit ideò quello circa venti anni dopo sarebbe diventato uno dei principali strumenti per insegnare il coding ai bambini: il LOGO.
Inizialmente il LOGO serviva per muovere un robot con dei semplici comandi avandi 10, destra 90, ecc. , fino a quando negli anni ’80 con l’avvento dei monitor e dei computer a basso costo venne sviluppata una versione visuale che letteralmente disegnava sullo schermo quello che in precedenza un robot faceva.
Sempre negli stessi anni iniziarono ad uscire in commercio giochi che si programmavano allo stesso modo e che ancora adesso vengono prodotti.
La semplicità del linguaggio ed il fatto che le principali azioni consistevano del disegnare su di uno schermo portarono il LOGO a diventare il linguaggio principale per spiegare ai bambini i concetti geometrici (cerchio, quadrato, triangolo, ecc) e permise a molti bambini di avvicinarsi ai rudimenti della programmazione sotto forma di gioco.
Purtroppo per molti anni, in Italia ed in molti altri paese, l’idea di insegnare il coding a scuola rimase relegato ai licei sperimentali o agli istituti tecnici con indirizzo specifico, fino a quando ,nel 2014 con la riforma della buona scuola venne introdotto il pensiero computazionale nelle scuole.
Pensiero computazionale, è uno strumento universale: pensare in modo computazionale significa suddividere il processo decisionale in singoli step e ragionare passo dopo passo sul modo migliore per ottenere un obiettivo. Una comportamento che in realtà mettiamo in atto tutti i giorni spesso in maniera inconscia.
L’esempio più significativo di utilizzo del pensiero computazionale lo troviamo nel film “Apollo 13” nella scena dove un think thank di ingegneri si deve inventarsi un filtro per l’ossigeno partendo da pochi materiali disponibili.
Come abbiamo detto all’inizio il pensiero computazionale è un modo di pensare a diversi livelli di astrazione per raggiungere un obbiettivo, il fatto che il Coding sia il metodo più diretto per sviluppare questo modo di pensare porta alla conseguenza che avremo delle persone più consapevoli non solo del mondo che le circonda ma anche di come interagire con esso visto che sono in grado di padroneggiarne le basi: non saranno più dei semplici fruitori della tecnologia ma ne saranno i veri padroni.
“Intellectually challenging and engaging scientific problems remain to be understood and solved. The problem domain and solution domain are limited only by our own curiosity and creativity" (Jeannette Wing)
Un'altra battaglia è stata vinta dai pigri e gli incapaci: i video verticali.
Per lungo tempo si è combattuta una battaglia per dire "No ai video verticali" ma da quando applicazioni per smartphone come Periscope, Snapchat e Meerkat hanno iniziato ad incentivarne, i pigri e gli ignoranti nelle basi delle riprese video si sono sentiti in diritto di stravolgere ogni buon senso (Periscope non dà nemmeno l'opzione per fare riprese orizzontali).
Anche un colosso come Youtube alla fine si è dovuto adattare alla pigrizia di chi non vuole ruotare lo smartphone e a giugno ha iniziato a contrastare le fastidiosissime bande laterali che accompagnano i video verticali con un aggiornamento che adatta i video verticali all'interfaccia: quando un filmato in verticale viene riprodotto non a schermo intero, YouTube ne mostra solo una parte, adattandolo al player e soluzioni analoghe stanno adottando Google e Viemo, dopo aver fatto una grossa comunicazione cercando di far capire agli utenti che i video verticali non sono "comodi" per il web e sopratutto per la classica visualizzazione a schermo, di computer o televisore.
Il solo fatto che si possa girare un video in verticale non vuol dire che si debba farlo. Il problema dei video verticali si presenta quando li guardi su uno schermo diverso da quello degli smartphone: a differenza di una fotografia (che la si può girare) un video non lo si può girare di 90° e quindi sono costretto a mostrare o delle bande nere oppure delle bande sfumate che non sono esteticamente belle. I televisori, i Cinema e anche gli occhi umani sono strutturati per vedere le immagini in larghezza più che in altezza. La maggior parte degli schermi tv o monitor sono addirittura 16:9 ormai e non più 4:3.
Chi si ricorda quanto era brutto in passato vedere un film girato in cinemascope (rapporto 2.35:1) su di un televisore 4/3? Adesso sta succedendo una cosa analoga con i video verticali, quando si cerca di proiettarli su un monitor o un TV normale l'immagine non è adatta!
Evidentemente chi gira questo tipo di video spera che un domani vi saranno televisori o monitor con lo schermo verticale o che si girano (già esistenti sul mercato) ma pensate a quando sia scomodo e soprattutto non ergonomicamente adatto alla morfologia umana… forse con l'ingegneria genetica, secondo queste persone, dovremmo anche rinunciare alla visione binoculare? Il campo visivo umano ha un'ampiezza orizzontale di circa 200° ed un'ampiezza verticale di poco più di 100°, quindi un aspect ratio che va da 1,78:1 (16:9) a 2,33:1 (21:9), è quello che più si adattano alla nostra visione.
Da un punto di vista tecnico, inoltre, un video verticale perde molte "informazioni", ovvero quello che succede intorno al soggetto creando molta "Aria" sopra e sotto, lasciando vedere solo un piccolissimo spicchio della realtà. Le informazioni registrate in verticale rimangono piccole rispetto al formato, dando una visone piccola della realtà.
Per chi obbietta che "le dirette FB sono solo in verticale" la risposta è semplice: le dirette devono lasciare spazio ai commenti quindi, in realtà, in questo caso la visualizzazione in verticale permette di avere una buona visualizzazione dello schermo, lasciando la parte sotto per i commenti, quindi una questione di impaginazione più che di corretta ripresa.
È vero che è più comodo tenere il telefono in verticale che non in orizzontale (soprattutto per abitudine), e per una ripresa fatta al volo, dove si estrae il telefono e si riprende ha senso; siamo abituati ad usare il telefono in maniera verticale, ma per i video di lunga durata, dove si riprende magari una manifestazione o un evento o anche solamente la recita del figlio, dove cioè la ripresa non è immediata il video verticale non ha motivo di essere.
Purtroppo è vero che con l'aumento delle persone che guardano tutto tramite smartphone il futuro dei video sarà sempre più verticale, ma questo non vuol dire che sia una buona norma o regola da seguire. Cosa succederà il giorno che si tornerà ad usare dispositivi con schermi "normali"? Ma soprattutto ricordate che fare un video verticale non vuol dire fare un buon video. In inglese hanno coniato una terminologia "Sindrome da video verticale" e, con un video semiserio, si dà una spiegazione molto simpatica del fenomeno ( https://www.youtube.com/watch?v=Ko5fFuAZ39o) che invito tutti a guardare.
Concludendo, se anche tu sei stanco di andare sui social o su internet e vedere dei video dove la porzione di inquadratura è minuscola e dove non si vede niente dì NO AI VIDEO VERTICALI
I chatbot sono programmi che simulano la conversazione tra una macchina ed un essere umano. Sono spesso utilizzati per il test di Touring (vedi E' stato superato il test di touring?) ma anche per interfacciarsi con gli utenti come nel caso di Siri o Cortana.
La storia dei chatbot ha origine nel 1966 quando Joseph Weizenbaum scrive Eliza, un programma che simula un terapeuta Rogersiano rispondendo al paziente con domande ottenute dalla riformulazione delle affermazioni del paziente stesso. Se ad esempio l'utente scriveva: "Mi fa male la testa" Eliza rispondeva "Perché dici che ti fa male la testa?" e così per un numero invinito di volte.
Per chi fosse interessato a questo programma oggi una versione di ELIZA incorporata come easter egg nell'editor Emacs o si trovano diversi sorgenti anche su internet che ne spiegano il funzionamento.
Oggi i chatbot trovano applicazione pratica in diversi campi: oltre che come assistenti virtuali (siri e Cortana) sono usati per il customer care aziendale (Royal Bank of Scotland in partnership con IBM), per guidare l'acquisto online e alla fruizione dei contenuti (-800-Flowers.com che pare sia stata la prima azienda in assoluto a usarne uno), per aiutare l'utente (i nuovi chatbot di Skype), oppure i chatbot che sta sviluppando Facebook che hanno come scopo lo sviluppo di un software in grado di negoziare con altri bot oppure con le persone, "per raggiungere una decisione o un fine comune".
Alcuni giornali, poco informati o alla ricerca di visibilità hanno pubblicato a fine luglio titoloni allarmistici riguardo due chatbot che sarebbero stati disattivati dopo che hanno creato una loro lingua per dialogare, richiamando alla mente il famigerato skynet di Terminator o il Master Control Program di Tron.
Nulla di più sbagliato!
Appurato che i chatbot sono programmi che simulano l'IA, i due chatbot di Facebook Bob e Alice hanno dimostrato tutto il loro potenziale sviluppando un linguaggio senza bisogno di nessun input umano.
Queste chatbot (dialog agents) sono state lasciate libere di conversare nel tentativo di rafforzare le proprie abilità comunicative e, a poco a poco, hanno modificando l'inglese fino a creare qualcosa di nuovo.
I ricercatori di Facebook a questo punto hanno spento le macchine non perché si sono spaventati, ma perché si sono accorti di non aver dato loro le giuste regole, ovvero hanno "detto" ai due chatbot i comportamenti da adottare e gli obiettivi da raggiungere, ma non quale lingua usare.
I chatbot avrebbero dovuto imparare dialogando con gli esseri umani, ma avendo entrambi un interlocutore virtuale sono andati avanti imparando l'uno/a dall'altro/a dalla precedente converssazione sviluppando un loro linguaggio. Il motivo per cui è stato interrotto l'esperimento è che i due chatbot parlavano tra di loro ma nessuno capiva cosa divevano, forse nemmeno loro.
Ecco la conversazione tra i due:
Bob: i can i i everything else . . . . . . . . . . . . . .
Alice: balls have zero to me to me to me to me to me to me to me to me to
Bob: you i everything else . . . . . . . . . . . . . .
Alice: balls have a ball to me to me to me to me to me to me to me
Bob: i i can i i i everything else . . . . . . . . . . . . . .
Alice: balls have a ball to me to me to me to me to me to me to me
Bob: i . . . . . . . . . . . . . . . . . . .
Alice: balls have zero to me to me to me to me to me to me to me to me to
Bob: you i i i i i everything else . . . . . . . . . . . . . .
Alice: balls have 0 to me to me to me to me to me to me to me to me to
Bob: you i i i everything else . . . . . . . . . . . . . .
Alice: balls have zero to me to me to me to me to me to me to me to me to
Dhruv Batra, professore alla Georgia Tech e ricercatore al Facebook Ai Research (Fair), responsabile dell'esperimento, scrive nella sua pagina di Facebook che quella di alcuni media è stata "Una copertura irresponsabile e basata sull'inseguire facili click".
L'abilità comunicativa, infatti, non è l'unica prerogativa affinchè l'intelligenza artificiale diventi davvero funzionale, è necessario che si avvicini il più possibile a quella umana.
Sul web e sui media è andato in onda uno "scontro" tra scienza e fantascienza e tra ricercatori e giornalisti… dove sembrano aver vinto questi ultimi.
Cos'è un PING in informatica? Semplificando diciamo che un PING è un comando che invia un piccolissimo pacchetto dati ad un computer per testarne la raggiungibilità in una rete.
Nel 1986, in un Italia dove l'auto più venduta era la Fiat Uno, si andava in giro con scarpe pesantissime e "giubbotti" rigonfi, dove le giacche avevano le spalle rialzate, si guardava "Drive in" la domenica sera ed il massimo della tecnologia indossabile era un Walkman, per la prima volta fu instaurato un collegamento internet attraverso la rete satellitare atlantica SATNET con una linea da 28kbs.
Un semplice PING e l'Italia era entrata ufficialmente in ARPANET e di conseguenza nell'era di Internet.
Bisognerà però aspettare ancora più un anno (23 dicembre 1987), prima che vengano creati i domini nazioni, ".it" ( la cui gestione fu affidata al Cnuce ), affinché l'Italia entri completamente nel mondo del web con il primo dominio italiano: cnuce.cnr.it.
In un primo momento la crescita di internet in Italia fu lenta soprattutto per motivi tecnici. Le connessioni erano fatte tramite modem analogico e le velocità raramente superavano i 36Kbs: la maggior parte dei modem erano a 1200bps in ricezione e 75bps in trasmissione, il che per le reti fidonet e le BBS erano più che accettabili.
Anche l'arrivo dei modem 56Kbs non migliorarono di molto le cose, dato che oltre al costo di un abbonamento internet (intorno alle 150.000 lire annue) si doveva pagare la famigerata TUT, la tariffa urbana a tempo, tanto che i primi internauti domestici stavano con un occhio al monitor e con l'altro all'orologio.
Ma ormai la stalla era aperta e i buoi stavano uscendo.
Nel 1990 Tim Berners-Lee presso il CERN inventa un sistema per la condivisione di informazioni in ipertesto noto come World Wide Web. Insieme a Robert Cailliau, Lee mise a punto il protocollo HTTP e una prima specifica del linguaggio HTML.
Nel 1993 esce Mosaic, il primo programma a fornire uno strumento leggero di navigazione (il primo Browser per usare un termine attuale). Da quel momento non erano più solo caratteri quello che veniva ricevuto sui terminali collegati alla "Rete" ma anche immagini impaginate come in un libro e testo.
Nel 1994 nasce Video On Line che, grazie ad una sapiente campagna di marketing tramite vari periodici, tra cui Panorama, Topolino, Il Sole 24 Ore, offriva l'accesso gratuito ad internet per alcuni mesi e nel 1995 raggiunse il 30% degli utenti italiani (circa 15.000).
Da lì in poi la storia di Internet si è evoluta velocemente; alcuni progetti sono nati e scomparsi, altri sono rimasti, altri ancora si sono evoluti …
È proprio il 1995 che segna l'inizio della mia "love story" con il mondo di Internet.
In quell'anno stavo finendo il servizio militare, ma anche in quel periodo non avevo mai rinunciato a comperare riviste di informatica. Su una di queste ( non ricordo il nome) trovai per l'appunto il disco di VOL ed alla prima licenza mi fiondai davanti al computer e feci il primo collegamento tramite il mio modem a 1200bps…
… La lentezza della connessione nell'aprire la prima pagina mi lasciò leggermente deluso, abituato alle BBS dove i dati trasmessi erano solo testo e quindi la velocità del modem adeguata.
Dovetti aspettare qualche mese, dopo essermi congedato e comprai il mio modem a 36kbs con un abbonamento ad un provider locale e le cose migliorarono notevolmente.
Iniziai a studiare l'HTML e ad affascinarmi a quel linguaggio di script che permetteva di impaginare i documenti per il web.
Ma fu solo nel 2000 che veramente iniziai a lavorare in quel settore, grazie all'incontro con il Professor Pelanda.
Avevo avuto modo di conoscere il professore come mio cliente nel negozio di computer che gestivo con altri due soci e un giorno, dopo un mio intervento tecnico mi chiese se ne sapessi qualcosa di come si fanno siti web. In sincerità gli risposi che sapevo come farne uno ma non avevo mai provato realmente a farne.
Mi diede appuntamento la domenica pomeriggio per discutere.
Ricordo che stetti per quasi 40 minuti sotto il suo ufficio prima di suonare il campanello tanta era l'emozione e la paura. Dentro di me sapevo che questo avrebbe rappresentato un cambiamento nella mia vita ma non mi rendevo conto di quale potesse essere.
Il mio primo sito internet fu proprio quello del professore (www.carlopelanda.com) che negli anni ha seguito l'evoluzione del web design, a volte anche anticipando le tendenze.
La prima versione era in HTML puro, con qualche GIF animata e ottimizzato per una risoluzione di 800 x 600 pixel. Grafica semplice e colori forti ( che ancora adesso si ritrovano in alcune sezioni).
Poi fu la volta della tecnologia FLASH che permetteva animazioni complesse leggere, quindi adatte alle connessioni del tempo ( la maggior parte degli utenti web usavano ancora modem a 56KBs, solo poche aziende avevano la linea ISDN e la Tariffa Urbana a Tempo era ancora attiva sulle linee telefoniche).
Attualmente si usano i CSS e l'HTML5, con java script.
Abbiamo abbandonato i fronzoli delle animazioni iniziali per dare più spazio ai contenuti e l'integrazione con i social network.
Sempre una maggior parte delle utenze internet utilizza anche dispositivi mobili, quindi la necessità è diventata quella di ottimizzare la visualizzazione su tablet e smartphone, così , come da una grafica ottimizzata per una risoluzione di 800x600 pixels siamo passati ad una di 1024x768, adesso passiamo ad una grafica fluida che si adatta a dispositivi mobili ed a schermi HD che arrivano anche 1600pixels.
Il web è come un essere vivente che si evolve. Un media che, a differenza della radio, della televisione o dei giornali, continua a crescere e cambiare.
Tornando al 1986 solo pochi scrittori di fantascienza ( tra i quali William Gibson esponente di spicco del filone cyberpunk. ) potevano immaginare quale futuro ci aspettava.
In questa rubrica ho parlato spesse volte di tecnologie web che nascono, fanno il loro exploit e poi spariscono, lasciando però una traccia indelebile ed una guida per il futuro.
È del futuro del web che adesso parlo.
Possiamo fare scenari ed ipotizzare come la nostra vita potrà cambiare, ma non possiamo esserne certi.
Con l'avvento delle connessioni ADSL e FLAT sempre più persone hanno accesso al web e di queste sempre più si esprimono tramite questo mezzo, influenzandone le tendenze.
Il fatto di essere un mezzo di comunicazione a due vie (ricevo informazioni ma ne mando anche) porterà internet ad essere una specie di coscienza collettiva di grande magazzino dove si attinge agli archetipi societari.
Nessuno poteva immaginare il successo dei Social Network come Facebook e Twitter e l'influenza che hanno avuto nella vita di tutti i giorni o il declino di siti come Second Life, che invece si prevedeva avrebbe raggiunto milioni di utenti attivi.
Il futuro è da scrivere e se gli anni '90 hanno rappresentato il momento di boom di internet, il XXI secolo rappresenterà la sua età matura.
Per finire, riporto le parole del Professor Pelanda all'inizio del nostro rapporto di collaborazione:
"… Dipinta questa, metterei accanto il viso di Filippo, giovante tecnico computer veronese. Si è offerto di costruire il sito (www.carlopelanda.com) dove tra poco sbatterò tutte le mie pubblicazioni e farò pubblicità alla mia attività (scenaristica). Stavo per firmare il contratto con un'azienda milanese che mi proponeva la realizzazione del sito (complesso e non solo una semplice videata web) ad un buon prezzo ed in pochi giorni. Ma ho assunto Filippo, che mi costa un po' di più e allunga di tre mesi i tempi perché non ha ancora un'esperienza di questi lavori, pur geniale tecnico. Sono rimasto affascinato dalla sua volontà di imparare questo mestiere e colpito dalla mancanza di risorse educative che glielo insegnassero, qui nella nostra zona. Abbiamo fatto un patto: impara lavorando ed io accetto il rischio. In cambio mi assisterà nella gestione futura del sito a costi inferiori a quelli di mercato. Ed il suo viso – simpaticissimo e concentrato, teso nello sforzo – possiamo metterlo tra l'immagine ansiosa detta sopra e lo scenario piacevole di sfondo futuro."
(L'Arena 20/04/2000)
L'uscita di Windows10 non è rappresenta solamente una nuova ed evoluta versione del precedente sistema ma anche una nuova strategia della casa di Redmond per rilanciarsi nel mercato dei dispositivi mobili dopo poco edificante esperienza degli anni passati.
Il fatto che il sistema operativo possa offrire la stessa esperienza di utilizzo sia sul computer, che sul tablet, che sul telefono sicuramente aiuta parecchio, ed anche il fatto che adesso le app possono essere le stesse aiuta parecchio l'utente a non sentirsi spaesato passando da un dispositivo ad un altro: Outlook, Calendario, Contatti, Office in versione touch, Foto. Ogni applicazione avrà la stessa interfaccia su PC, su laptop con schermo touch oppure su smartphone; Centro Notifiche è sincronizzato con quello PC ed anche il pacchetto office sarà lo stesso.
Una soluzione simile l'aveva, in vero, già intrapresa google, ma qua la cosa è diversa e più articolata.
Un'altra cosa che potrà aiutare la Microsoft a recuperare il terreno perduto è il fatto che il sistema operativo Windows10 non ha bisogno di grandi risorse (consiglio di leggere il mio precedente articolo su windows10) e questo permette di immettere sul mercato device e computer a prezzi più bassi.
Basta fare un giro su Amazon o nei grandi centri di distribuzione e ci si accorge che vi sono offerte per tablet che partono da 50,00 € con caratteristiche interessanti (Processore Atom Z3735G Quad-Core 1.83GHz Display multitouch da 7 pollici 1024x600pixel Memoria interna 16GB Wi-Fi 802.11b/g/n - Doppia fotocamera Sistema operativo Windows 10 Home) o portatili a partire da 190,00€.
Concludendo sembra che la Microsoft stia tentando di entrare in un mercato che è al momento è appannaggio di Google e Apple in maniera molto incisiva, se avrà successo solo il mercato stesso ce lo dirà ma non è esclusa che combinazione prezzo interessante ed usabilità potrò premiare la Microsoft come ha fatto Android con Google, forse a scapito proprio della casa di Mountain View, piuttosto che della casa di Cupertino che comunque è rappresenta un settore di mercato a parte.
Secondo una ricerca di "Bromium Labs" il browser Internet Explorer è quello che ha subito, nei primi 6 mesi del 2014, il maggior numero di attacchi informatici. A peggiorare la situazione vi è anche il fatto che Internet Explorer sia anche quello con il maggior numero di vulnerabilità.
Questo ha portato sia il governo Americano che quello Inglese a consigliare ai propri cittadini di considerare delle alternative al browser di casa Microsoft: secondo NetMarket Share, infatti, Internet explorer (dalla versione 6 alla 11) è il browser più usato.
La United States Computer Emergence Readiness Team (US-CERT), afferma che le vulnerabilità "could lead to the complete compromise of an affected system".
Il giornale inglese "The Telegraph" ha consultato diversi specialisti in sicurezza informatica provenienti da famose aziende specializzate ( Symantec, FireEye, Malwarebytes and AppSense ) e tutti sono dell'avviso che la soluzione migliore sia cambiare il browser.
Negli ultimi anni i programmatori di Redmond hanno lavorato parecchio sulla sicurezza del browser, tanto che molti hacker preferiscono concentrasi a sfruttare le falle di altre applicazioni (Java in primis, seguito da Flash).
Anche i programmatori di Oracle hanno lavorato parecchio tanto che Java VM nei primi sei mesi del 2014 java non ha subito attacchi "Zero Day" a differenza dell'anno precedende.
Vediamo adesso alcune alternative:
Tra le più considerate dagli utenti sono quelle di Firefox e Chrome. Entrambi i browser, che nell'anno precedente contenevano diverse vulnerabilità, nel 2014 hanno visto le vulnerabilità scendere vertiginosamente.
Altre alternative che possono essere prese in considerazione sono l'uso di Safari oppure Opera, a scapito però, di una certa perdita di compatibilità con alcuni siti web.
Rimane sempre il rischio di usare applicazioni, all'interno del browser, che usano Java o Flash.
E tornando a Java e Crhome ci tengo a sottolineare che entrambi detenevano il record di vulnerabilità del 2013, mentre quest'anno sembrano aver ridotto decisamente la cifra tanto che, ad oggi (luglio 2014), non sono stati segnalati attacchi pubblici mentre lo scorso anno erano stati undici. ''La nostra previsione - concludono gli esperti di Bromium - è che Explorer continuerà ad essere l'obiettivo preferito dagli hacker per tutto il resto dell'anno''.
Queste vulnerabilità di explorer sono particolarmente pericolose per gli utenti (ancora molti) che continuano ad usare Windows XP, in quanto la Microsoft ha terminato il supporto per tale sistema operativo.
La mia considerazione è che l'essere il principale produttore di sistemi operativi e del browser di maggior diffusione dovrebbe portare ad aver una maggior considerazione per i propri utenti/clienti senza abbandonarli od obbligarli a spendere centinaia di euro per aggiornare un sistema operativo per aver la sicurezza.
In ricordo di Alan Turing ucciso dall'ignoranza e dalla bigotteria
I propose to consider the question, “Can machines think?” This should begin with definitions of the meaning of the terms “machine” and “think”.
In questo modo, nel 1950 Alan Turing iniziava il suo saggio: “Comupting Machinary and Intelligence” sulla rivista Mind.
Da questo papper Turing sviluppo un procedimento di pensiero per determinare se una macchina fosse in grado di pensare: per Turing una macchina in grado di pensare è una macchina che sia capace di concatenare idee e quindi di esprimerle.
In questa sede tralasciamo la spiegazione del test ( chi fosse interessato può tranquillamente scaricare tutto il papper a questo indirizzo: http://orium.pw/paper/turingai.pdf )
Dal 1950 i parametri per il Test di Turing sono stati riformulati, sia perché originariamente troppo imprecisi, sia perché sono insorte nuove definizioni di macchina intelligente, come nel caso di ELIZA (1966), dove un software era in grado, tramite la riformulazione delle affermazioni di una persona, a porre delle domande che potevano indurre a pensare che l'interlocutore non fosse un computer ma un essere umano.
Sabato 6 giugno 2014 si è svolto presso la Royal Society una gara tra 5 programmi, con l'intento di superare il Test di Turing: i programmi dovevano rispondere, per interposta tastiera, a dei giudici umani, durante sessioni di discussione di cinque minuti. Al termine di questi scambi, stava ai giudici decidere se il loro interlocutore fosse un umano o un robot. Se il programma informatico fosse riuscito a convincere almeno il 30% degli umani, il test sarebbe stato da considerarsi riuscito.
Di questi, soltanto “Eugene” è riuscito a passare il test con successo, convincendo il 33% dei giudici. La differenza, rispetto al le altre volte che il test di Turing venne considerato superato e quella del giugno 2014, è che gli argomenti di discussione, in questa prova, non vennero definiti prima di iniziare il test.
In realtà le critiche non sono mancate: il programma si fingeva un adolescente e questa interpretazione del test ne avrebbe facilitato la riuscita poiché gli interlocutori umani tendono ad attribuire più facilmente all’età un tipo di comunicazione poco ortodosso. Anche la scelta della nazionalità fittizia è stata oggetto di critiche, in quanto avrebbe portato i giudici a ritenere le disfunzioni sintattiche come conseguenza del fatto che il ragazzo non fosse di madrelingua inglese. Infine, per il momento l’articolo scientifico coi dettagli dell’esperimento non è ancora stato pubblicato, e l’università di Reading non ha voluto fornire alcuna copia delle conversazioni ai giornali. Si parla di circa 300 conversazioni con 30 giudici tra i quali dei famosi nomi nel campo dell'intelligenza artificiale.
C'è quindi da pensare che un software non possa essere scambiato per un essere umano, ma che, invece, ciò sia possibile solo in determinate e limitate condizioni e solo per una minoranza di casi (il famoso 30% che dovrebbe essere portato almeno a 56% secondo alcuni esperti).
Concludendo possiamo farci una domanda: ha ancora senso il Test di Turing? La domanda iniziale: “Can a Machines think?” è ancora valida quando ancora non abbiamo consapevolezza di cosa si intenda per pensiero?
Ognuno di noi, quando conversa con un chatbot (programmi come ad esempio ELIZA che simulano una conversazione), ci proietta se stesso, mette in moto i circuiti dell’empatia, cercando di specchiarsi in quella relazione: vuole essere ingannato. Ma un’altra parte non accetterà mai che un sistema artificiale, per quanto sofisticato, possa essere in grado di pensare.
In una puntata di Battlestar Galactica (una serie televisiva di fantascienza) una frase ci porta a riflettere sul Test di Turing, quando un umano, parlando con un Cylone dice: “Noi siamo umani, voi siete soltanto macchine”.
Insomma il tempo di HAL 9000 (del film 2001 Odissea nello spazio) è ancora lontano ed il 2001 è passato da 13 anni...
«My mind is going. There is no question about it. I can feel it. I can feel it. I can feel it.
I'm afraid.»
(HAL9000 2001 Odissea nello spazio)
Questo mese l'analista Mary Meeker della società Kleiner Perkinsha rilasciato la sua tanto attesa presentazione sullo stato di internet (per chi sia interessato a consultarla il sito:http://www.kpcb.com/internet-trends) . Della presentazione, molto articolata, analizzeremo in questo articolo, solamente di alcune parti.
Il 25% del traffico web è ormai generato dai dispositivi mobili, trainato principalmente dai
video e dalle foto segno, a detta della Meeker, che i device mobili sono protagonisti di una 're-immaginazione' del web, per creare e condividere una gamma ampia e differenziata di informazioni; cresce, infatti, a ritmo sostenuto, la diffusione degli smartphone (+20% slide 4) soprattutto in mercati quali la Cina, l'India, il Brasile, anche se i dispositivi intelligenti rappresentano ancora solo il 30% dei 5,2 miliardi di device; i tablet hanno registrato una crescita del 52%, contribuendo all'aumento dell'81% del traffico generato dalle piattaforme mobili.
Un altro fatto è che la diffusione di internet sia diminuita del 10% rispetto all'anno precedente e stia crescendo, però, in mercati scarsamente redditizi come l'India, l'Indonesia, la Nigeria (slide 4 ).
Tra i trend più in crescita c'è quello della condivisione delle immagini: ogni giorno vengono scambiati dai device mobili 1,8 miliardi di foto.
Tra i sistemi operativi più usati dai device vediamo che, tra il 2005 ed il 2013 c'è stata la sparizione di Symbian e l'affermarsi (in maniera dirompente) di Android; mentre IOS rimane stabile (slide10).
Tra le applicazioni di messaging (slide 36) rimane al primo posto WhatsApp (ormai sul mercato da 4 anni), seguito da Tencent. Chiudono la classifica rispettivamente Snapchat e Viber.
Su questo punto è da notare che i dati si riferiscono al 2013, cioè prima che Facebook comperasse WhatsApp, bisognerà vedere l'anno prossimo quali saranno le ripercussioni sull'utilizzo dell'app.
Proseguendo nell'analisi delle slide (37) notiamo che c'è un evoluzione nell'evoluzione del "messagging": facebook rimane il mezzo preferito per inviare pochi messaggi/notizie ad un largo numero di contatti, mentre i programmi di messaging vengono principalmente usati per inviare messaggi ad un ristretto ( o solamente uno) numero di contatti.
Nella slide 62, in fine, viene mostrata l'evoluzione della comunicazione nello scambio di immagini dove snapchat la fa da padrone, con una formidabile crescita nello scambio di foto singole, seguito
da WhatsApp.
Le implicazioni nate da questa veloce analisi sono molte ma vorrei soffermarmi, per adesso, alla crescita di snapchat e WhatsApp.
Snapchat permette di inviare immagini che rimangono sul dispositivo ricevente solamente per un limitato periodo di tempo. WhatsApp permette di inviare invece messaggi e foto a un solo contatto oppure ad un ristretto numero di contatti; entrambe le applicazioni, quindi, permettono di usufruire di una certa privaciy rispetto al altre forme di condivisione di contenuti.
Si desume che l'utente internet stia sempre più ricercando una propria privaci e che l'era del grande fratello (non Orweliano in questo caso ma televisivo) stia tramontando.
Rimane, comunque, sempre vero quello che aveva detto a suo tempo Kevin Mitnick detto "Condor" nel suo libro "L'arte dell'inganno": un computer sicuro è un computer spento, quindi bisogna sempre prestare attenzione ai contenuti che si condividono tramite internet.
La tecnologia influenza e trasforma la società, ne migliora la vita, garantisce il progresso ma ne condiziona, spesso, anche la condotta.
Con il lento ma inesorabile calo del digital divide (il divario esistente tra chi ha accesso effettivo alle tecnologie dell'informazione in particolare personal computer e internet e chi ne è escluso), la comunicazione sta cambiando nei contenuti e nello stile: alle parole, sempre più spesso, si sostituiscono le immagini, alle idee i “re-post” o i “Like”; alcuni comportamenti , che sono sempre esistiti, vengono esasperati e/o accentuati dall’uso dei nuovi media. Alcuni motociclisti ed automobilisti, ad esempio, si divertono a postare video dove corrono, zigzagano e sfiorano altri utenti della strada, mentre viene inquadrato il contachilometri che tocca velocità impensabili.
Ultimamente si stanno sviluppando due nuove mode tra gli utenti di internet (soprattutto gli adolescenti) che hanno risvolti preoccupanti: la “Neknomination” ed il “Knockout Game”.
Sebbene siano due sfide completamente diverse tra di loro hanno in comune che entrambe si sviluppano e si propagano tramite social network .
Il primo (Neknomination) , nato in Australia, è la contrazione delle parole inglesi neck and nominate, ovvero collo e nomina (dove per collo si intende il collo della bottiglia) e consiste nel filmarsi mentre si beve una pinta di una bevanda alcolica tutta d'un fiato e pubblicare il filmato sul web; l'autore del filmato dovrà inoltre nominare altri due amici, che avranno 24 ore di tempo per raccogliere la sfida ed eseguire a loro volta la bevuta. Chi non rispetta le regole una sera sarà costretto ad andare in un pub e offrire agli altri.
In Paesi, come Inghilterra, Stati Uniti e Irlanda, questo gioco ha già fatto le sue vittime. Almeno 5 ragazzi sarebbero morti dopo avervi partecipato e tanti altri sono finiti in ospedale in coma etilico.
Su Facebook le pagine dedicate a questo gioco sono parecchie e, tutte, hanno parecchi LIKE come ad esempio questa pagina creata il 23/03/2014https://www.facebook.com/pages/Neknomination/290173311139913.
Un ragazzo intervistato dall’Independent che per la sua NekNomination ha tracannato mezzo litro di sambuca in 10 secondi , oltre all’alcol poi, alcuni sfidano a compiere azioni proibite o pericolose , come è successo a John Byrnem, morto per essere saltato in un fiume come parte della sua NekNomination.
Una ragazza inglese, pinta alla mano, si è ripresa mentre si spogliava nel bel mezzo di un negozio Asda.
Gruppi di genitori irlandesi e inglesi hanno già chiesto a gran voce al social network di mettere offline i video pubblicati e chiudere le pagine dedicate al gioco: da Facebook però hanno detto di no, perché di fatto il contenuto delle NekNomination non viola le regole di Cupertino.
Il gioco intanto si è evoluto e, adesso, ci si sfida non solo sulla quantità e velocità con cui si ingurgitano gli alcolici, ma anche sul modo più estremo di bere: così, c’è chi gusta birra dalla tazza del cesso facendo la verticale e chi tracanna bicchieri di vodka con dentro pesci rossi vivi. O ancora, chi si fa un frullato di gin e cibo per cani o peggio con un intero topo morto.
Il Knockout Game, invece, consiste nello stendere con un solo pugno un ignaro passante e poi postare il video.
Il primo caso in Italia di knockout Game si è verificato a Favaro Veneto, per l'esattezza, appena fuori da un centro commerciale nel gennaio del 2014, mentre la prima vittima (morta) è stato un cameriere bengalese,
Zakir Hoassini, morto dopo 24 ore di agonia per un pugno preso in faccia nel centro di Pisa.
Secondo alcuni psicologi questi comportamenti estremi esprimono un profondo bisogno di riconoscimento e di essere visti. I giovani sono alla ricerca di un attestato relativo alla loro identità, al loro valore e alla loro diversità rispetto agli adulti; in mancanza dei riti di passaggio, quelli che una volta sancivano l’ingresso nel mondo dei grandi e oggi in disuso, c’è la ricerca spasmodica di visibilità e di complicità fra coetanei.
Se prima dell’avvento di internet e dei social network questi comportamenti estremi avvenivano in sordina, adesso i giovani usano la rete per manifestare questi loro atteggiamenti.
Dal 2009 Shodan è uno dei motori di ricerca più utili agli hacker di tutto il mondo perché consente di ottenere velocemente informazioni riguardanti gli indirizzi IP di siti Web, servizi online, Webcam connesse e ogni altra attività Internet.
Ma cosa fa e come funziona Shodan?
Ogni computer connesso a Internet o eventualmente dispositivo ha un indirizzo IP pubblico, quindi raggiungibile dall'esterno. Il motore di ricerca sapendo il range di indirizzi disponibili online in tutto il mondo, come un crawler fa una scansione automatica e cerca di connettersi a tutti. Per ogni IP a cui riesce a connettersi ne legge i cosiddetti banner ( ovvero i messaggi di benvenuto dei server); questi, per un pirata informatico sono come delle impronte digitali: sa che a quell'indirizzo IP corrisponde un server attivo, ne conosce la versione, di conseguenza eventuali falle e così via.
Chi si ricorda il film "War Games" del 1983 (invito tutti vivamente a riguardarlo), certamente ha presente quando il giovane protagonista - Matthew Broderick – mostrava alla sua amica il metodo della "war-dialing", chiamava cioè tutti i numeri di telefono in un determinato range fino a quando non rispondeva un computer.
Ecco Shodan fa la stessa cosa con gli IP, ma in più permette all'utilizzatore di personalizzare le ricerche; se ad esempio scrivessimo "OS/x city:"Verona" country:it" ci comparirebbe come ricerca solo nella città di Verona in Italia i server che corrispondono alla parola OS/X .
Per utilizzare Shodan basta collegarsi al sito web (http://www.shodanhq.com/) e registrarsi; quindi si utilizza come un comune motore di ricerca ( chi è abituato ad usare solamente google avrà qualche difficoltà all'inizio).
Shodan mi permette anche di impostare dei filtri :
after/ before: limita la ricerca ad un determinato range temporale ad esempio: before:20/03/2010 ( attenzione su usa la data nel formato inglese/americano gg/mm/aaaa)
city: il nome della città. Ad esempio: city:"Bologna"
country: le due lettere che identificano il paese; ad esempio country:IT
geo: latitude and longitude permette di identificare un range geografico con i punti indicati con le coordinate di latitudine e longitudine.
Port: cerca solo server con determinate porte aperte
Os: Cerca I server con un determinato sistema operativo
Hostname: il nome completo o parziale di un host.
Da questa breve spiegazione sulle possibili ricerche offerte da Shodan si evince che questo motore di ricerca, di per sé, non sarebbe pericoloso, ma , come detto all'inizio dell'articolo, permette ad un hacker anche principiante di acquisire informazioni utili ai suoi scopi.
Per finire ci tengo a ricordare una cosa: Un "vero" Hacker viola un sistema solo per il gusto di farlo e non per trarne un profitto personale.
Con la diffusione delle case intelligenti (frigoriferi che dialogano con il microonde che poi ti manda sullo smartphone la lista della spesa ) la maggior parte delle persone si preoccupa della possibile propagazione di virus attraverso questi dispositivi, tanto che alla fine dell'anno passato (2013) e inizio del presente (2014) diversi giornali nazionali lanciavano l'allarme ( es. repubblica del 20 gennaio 2014 ) In realtà la paura che le persone che fanno uso di questi dispositivi dovrebbero avere è ben altra: un vero hacker non entrerà mai nel vostro sistema per mandarvi spam o virus come riporta l'articolo di repubblica, ma entrerà nel sistema solo per il gusto di farlo ( come ogni hacker fa) e poi lascerebbe un ricordo della sua presenza, magari spegnendovi il frigo o accendendo il fornello oppure alzando il riscaldamento a 60° in pieno agosto. Vorrei portare l'esempio di Marc Gilbert, padre di 34 anni di una bambina di 2 anni, che è stato vittima di un hacker che , seppur virtualmente, si è insinuato in casa sua. L'uomo era tornato dalla propria festa di compleanno e stava per entrare nella camera di sua figlia per darle la buonanotte ma, mentre era ancora fuori, ha sentito chiaramente la voce di un uomo provenire dall'interno. Marc, che si è precipitato in camera in cerca di un aggressore che in realtà non c'era o meglio non nel senso letterale del termine. Tutto ciò che era presente in camera era una voce, tetra, che fuoriusciva dal baby monitor installato in camera e che ripeteva questa frase: "Wake up you little slut". Un uomo, dunque, la cui identità resta ignota, era riuscito a indicizzare l'indirizzo IP del baby monitor, riuscendo a vedere quanto accadeva in quella stanza, trasmettendo addirittura la sua voce. Ma come è possibile che questo possa succedere? Ogni computer connesso a Internet o eventualmente dispositivo ha un indirizzo IP pubblico, quindi raggiungibile dall'esterno. Il motore di ricerca sapendo il range di indirizzi disponibili online in tutto il mondo, come un crawler fa una scansione automatica e cerca di connettersi a tutti. Per ogni IP a cui riesce a connettersi ne legge i cosiddetti banner". Una volta interrogati posso fornire informazioni di vario genere: la tipologia e il nome del server web, il software adottato (Apache) e la versione, la geolocalizzazione, etc. E così di fatto si sa che a quell'indirizzo IP corrisponde un server attivo, magari web, conosce la versione e così via di conseguenza eventuali falle. Quindi, anche se il vostro Smartphone od il vostro frigorifero non compare su google quando fate una ricerca, non vuol dire che non sia presente sulla rete e che non sia rintracciabile. In un prossimo articolo parlerò del motore di ricerca più pericoloso al mondo, che permette appunto di rintracciare questi dispositivi collegati.
L' ECDL (European Computer Driving Licence), detta anche Patente europea per l'uso del computer, si evolve e dal 1 settembre 2013 è in vigore la "Nuova ECDL", ovvero una nuova famiglia di certificazioni ( proposta sempre da ECDL Foundation e AICA) destinata a sostituire progressivamente le attuali certificazioni ECDL Core, ECDL Start ed ECDL Advanced.
La nuova ECDL propone nuovi moduli e consente una maggiore flessibilità, in quanto il candidato può scegliere la combinazione di moduli che ritiene più interessante e utile e chiedere in ogni momento un certificato che attesti gli esami superati; inoltre viene posta particolare attenzione a nuove problematiche quali la sicurezza informatica, il web editing ecc.
Ma serve l'ECDL?
Quella della ECDL è una storia molto particolare. Se poi si guarda con attenzione ai cavilli si scopre che la patente non è nemmeno Europea: "non esiste alcun sistema di certificazione o di qualificazione europea", parola del commissario europeo Viviane Reding, in risposta ad una interrogazione del 2001 del deputato europeo Francesco Musetto.
Prima di tutto va precisato che ECDL è una certificazione standard, ma non costituisce titolo legale di studio né si configura come qualifica professionale. Essa è paragonabile alle certificazioni riguardanti le conoscenze linguistiche (per esempio il TOEFL o il Cambridge Certificate per l'inglese) che fanno testo in tale campo in tutto il mondo.
In Italia ha avuto una diffusione enorme all'inizio degli anni 2000 grazie all'operato di AICA, l'associazione non profit unica titolare riconosciuta a distribuire e conferire gli attestati con questa denominazione.
A livello burocratico, sebbene l' ECDL non abbia alcun valore di titolo di studio, viene riconosciuta nei concorsi pubblici o nei corsi universitari come punteggio aggiuntivo.
A questo punto è bene aprire una breve parentesi sui costi per ottenere la "patente" ECDL.
Dal sito dell' AICA (http://www.aicanet.it/) si legge che Occorre fare una distinzione fra i costi della certificazione (che occorre obbligatoriamente sostenere), e i costi della formazione.
I costi della certificazione sono dati dal costo della Skills Card e dal costo relativo a ciascuno degli esami che il candidato deve sostenere: per la Skills Card è di € 60 da pagare al Test Center presso cui viene acquistata; per ogni singolo esame è di € 18 da pagare al Test Center presso il quale l'esame viene sostenuto; il totale, inclusivo della Skills Card e dei sette esami,in assenza di ripetizioni, è di € 186, il tutto iva esclusa.
Per quanto riguarda l'analogo prezzo medio praticato ai candidati non studenti, esso risulta di circa il 30% superiore a quelli sopracitati.
Visto che negli ultimi 10 anni l' AICA si è data molto da fare affinchè l'ECDL venisse riconosciuta nei concorsi pubblici e nelle università per acquisire punti, risulta che l'unico a guadagnarci sia appunto AICA e che si verifichino situazioni paradossali, come quella di Davide C.
Davide C. nel 2007 partecipò ad un concorso bandito dal comune di Novi Ligure per un posto di lavoro a tempo determinato come "Istruttore Informatico" categoria C.
Dal curriculum vitae di Davide C., tra le varie informazioni personali, si può leggere che ha conseguito la maturità scientifica, una Laurea in Informatica, una Laurea Magistrale in Informatica dei Sistemi Avanzati e dei Servizi di Rete con il punteggio di 110 e Lode, che era al terzo anno del corso di Laurea in Informatica Giuridica per conseguire un'ulteriore laurea, che era vincitore di una Borsa di Perfezionamento e Addestramento alla Ricerca, settore nel quale era attualmente ed entusiasticamente impegnato, presso il Dipartimento di Informatica dell'Università del Piemonte Orientale, ma che non aveva mai conseguito la Patente Europea del Computer (ECDL).
Il 18 e il 19 luglio Davide C. si presenta per svolgere le tre prove e, prima dell'ultimo esame gli vengono comunicati i punti assegnati in base ai Titoli.
A fianco al suo nomelegge: Titoli di Studio e di Cultura = 0 (ZERO). Titoli di Curriculum = 0 (ZERO).
La curiosità che lo aveva spinto a partecipare al concorso sale e, al termine della prova finale, chiede delucidazioni circa i punteggi attribuiti ai Titoli di Studio e Cultura. Gli viene riferito che avendo una maturità scientifica la Laurea Magistrale in Informatica della durata di 5 (cinque) anni è stata considerata come "requisito essenziale per l'ammissione alla selezione" e non come un titolo di studio più elevato in quanto non possessore di ECDL.
Disorientato dalla risposta, Davide C. replica con chiarezza "se avessi conseguito la Patente Europea del Computer mi sarebbero stati assegnati punti per i Titoli di Studio in possesso?", la risposta chiara, sconcertante e monosillabica pronunciata dalla commissione è stata "SÌ".
Un "SÌ" che è sintomo dell'inquietante realtà che oggigiorno 60 ore di un corso base di computer possano equivalere non solo a un diploma di perito informatico ma a cinque anni di studi accademici!
Dopo questa incredibile storia, invito i lettori a provare uno qualunque, dei vari test online disponibili per verificare la propria preparazione all'esame ECDL ed a constatarne quanto siano inutili.
Concludendo, possiamo dire che la Patente Europea all'uso del computer non assicura di saper usare il computer ma di averne solo una conoscenza (spesso molto superficiale).