“Sha Zhu Pan”, tre parole cinesi possiamo tradurre come “pig butchering” (macellazione del maiale in Italiano), ma dietro queste tre parole non si cela una faida tra vegetariani e carnivori ma una truffa online che mira a disumanizzare la vittima, è complice nello sfruttamento di esseri umani e che, negli ultimi anni, sta colpendo sempre più persone. Purtroppo la maggior delle persone che rimangono vittime di questo tipo di truffa si vergona a denunciarla o ad accettarla come tale, anche a causa del nome della truffa che disumanizza chi ne è colpito e lo porta a vergognarsene.
In effetti la tecnica del pig butchering rientra a tutti gli effetti nelle classiche truffe romantiche che da qualche anno stanno rovinando tante persone: secondo Lloyds Banking Group, in Europa, nel 2023 è aumentato di un quinto rispetto l’anno precedente, pur avendo un importo medio inferiore rispetto all’anno precedente. In Italia, Secondo gli ultimi dati comunicati dalla Polizia Postale, i casi di "romance scam" sono in continuo aumento, partendo dal 2021 quando hanno avuto un incremento del 118% la tendenza è sempre stata in crescita, portando i truffatori a utilizzare metodi sempre più sofisticati e umilianti per la vittima.
Cos’è un Romantic Scam.
Per Romantic Scam o Romantic fraud, si intende un tipo di truffa dove la vittima viene sempre più coinvolta a livello emotivo con il truffatore.
L’autore della truffa solitamente ha diversi profili fake su social network o su siti di dating. Attraverso questi profili contatta la vittima e cerca di instaurare con lei un rapporto emotivo ed empatico per poi estorcerle soldi con richieste sempre più esose. All’inizio si tratta di piccole cifre per comperare, ad esempio, dei medicinali ma, con il passare del tempo le richieste si fanno sempre più pressanti. Quando poi la vittima non è più in grado di dare denaro il truffatore sparisce portandosi dietro, oltre ai soldi, una quantità di informazioni personali della vittima considerevole che vanno a finire nel darkweb.
Per quanto possa sembrare strano, la maggior parte delle vittime, secondo uno studio fatto da ricercatori italiani e pubblicato sul Clinical Practice & Epidemiology in Mental Health nel 2020 le donne di mezza età, con alti livelli di instabilità emotiva, tendenze a idealizzazione romantica delle relazioni affettive, ricerca di sensazioni forti, impulsività e predisposizione alla dipendenza, hanno più probabilità di essere vittime di truffe sentimentali; la maggior parte delle persone che è vittima di una truffa di questo tipo esce da una situazione emotiva che l’ha resa debole (può essere un divorzio, una separazione, la morte di una persona cara, ecc.). Le storie più comuni che vengono raccontate, dopo un periodo di chat sono del tipo: “Io o qualcuno a me caro è malato” oppure “ha fatto un incidente e da noi si paga l’ospedale”, oppure “ho bisogno di soldi per il viaggio per venire a trovarti e per il visto”. La maggior parte dei truffatori, infatti, si fingono persone che vivono lontano, in altri stati se non continenti. Per dare un’ idea del fenomeno, già nel 2018 il Better Business Bureau1 aveva fatto una ricerca, tramite un’azienda che si occupa di screening di profili online per conto di siti d’incontri, secondo la quale un profilo su 7 poteva essere falso; su tre milioni e mezzo di profili scansionati ogni mese, era risultato che, in media, 500.000 di questi erano falsi. Secondo un esperto (riporta Better Business Bureau) potevano esserci 25.000 possibili truffatori online alla ricerca di vittime in qualsiasi momento.
Ma non sempre alle vittime è chiesto di dare del denaro, talvolta (secondo un report del BBB dell’anno successivo) le vittime diventano dei criminali facendo da intermediari e aiutando a trasferire denaro da un conto all’altro: una stima di Terril Caplan2 di Fraud Aid (organizzazione che difende le vittime di truffa), indica come il 20-30% delle vittime di truffe sentimentali nel 2018 potrebbero essere state utilizzate come corrieri di denaro.
Pig Butchering
Negli ultimi anni è nato un nuovo tipo di romantic scam chiamato "macellazione del maiale”. Anche in questo caso la maggior parte delle vittime è di sesso femminile (67%) con un età compresa tra i 25 ed i 40 anni; Il 32% delle vittime ha una laurea e 41% delle vittime ha incontrato il truffatore su Facebook, Instagram o WhatsApp.
Rispetto alle classiche truffe romantiche il Pig Butchering è più sottile e richiede più tempo e si divide in diverse fasi: Packaging, Raising, Killing, Killed. Anche il metodo di defraudare la vittima è diverso in quanto spazia dai falsi Siti Web e app di investimento ai falsi Broker su MetaTrader, dai finti pool di mining3 di liquidità agli investimenti di gruppo, per finire al gioco online. Questo nuovo metodo di truffa è nato in Cina, dove è conosciuta come shāzhūpán (o Sha Zhu Pan), e prende questo nome dal metodo utilizzato dai truffatori, che “mettono all'ingrasso” le vittime (come si fa con i maiali prima del macello) per poi sottrarre tutto quello che hanno. Anche se principalmente questo tipo di truffe coinvolgono le criptovalute possono anche essere legate ad altri tipi di trading.
Le fasi dell’ingrasso e della macellazione
Abbiamo detto che questa truffa si divide in fasi. La prima prende il nome di Packaging, impacchettamento, dove la vittima viene preparata: dopo aver studiato la vittima sui suoi profili social o di dating viene contattata con una scusa qualunque (a volte la vittima viene contattata con un messaggio diretto facendo sembrare che si voleva scrivere a qualcun altro) e si inizia ad interagire con lei. Quasi sempre il truffatore si presenta come un uomo o una donna asiatica di bella presenza, racconta di sé e invita l’interlocutore a fare altrettanto, creando un rapporto di empatia; dopo qualche messaggio la vittima viene invitata ad utilizzare telegram o whatsapp. Questo passaggio è molto importante perché crea nel soggetto preso di mira un senso di falsa sicurezza essendo queste due applicazioni legate ad un numero di telefono. Tramite queste app inizia a condividere foto della sua vita, manda dei selfie, si dichiara single ed in cerca di un vero amore o una relazione stabile. Nelle foto che condivide c’è sempre del lusso, una bella macchina, cibi ricercati, una casa o vestiti di lusso, il tutto per far vedere che ha una vita agiata, creando credibilità al personaggio che interpreta. Si dice disposto/a a fare delle telefonate o delle videochiamate ma avverte che parla cinese ed il suo inglese non è perfetto; si dice altresì disposto/a ad incontrarsi ma non subito, troppi impegni adesso, ma sicuramente in futuro succederà. Quando parla di lavoro racconta quello che fa (investimento in criptovalute, trading, ecc.) ma sempre in maniera discorsiva. Saluta ogni mattina ed ogni sera e scambia vari messaggi durante il giorno.
Dopo una o due settimane si passa alla fase del Raising: confessa di essersi innamorato/a e inizia a chiamare la vittima con nomignoli quali amore, moglie, baby, bambino, ecc.; il soggetto preso di mira è invitato a scambiare foto piccanti creando così un nuovo livello di intimità. Inizia a parlare del suo lavoro più intensamente e parla delle sue finanze più apertamente (che sono ovviamente sempre superiori a quelle del truffato!).
A questo punto dice alla vittima che non sta sognando abbastanza in grande che possono farlo insieme e gli offre di investire come fa lui/lei (ovviamente non chiede soldi direttamente). Invita quindi a utilizzare un’appo o un sito che utilizza anche lui/lei anzi, per assicurare che non è una truffa, si offre di prestare del denaro per provare o utilizzare il suo account, così da provare e di guidare il/la malcapitato/a nell’investire.
Chiaramente il truffato vede che gli investimenti rendono anzi, quando inizia a utilizzare i suoi soldi all’inizio riceve anche dei frutti. All’inizio gli investimenti che consiglia di fare sono di piccola entità, così come i guadagni, ma piano piano si viene invogliati ad aumentare i soldi che si impegnano per avere più guadagno, così in futuro vittima e carnefice potranno vivere insieme e stare bene economicamente, magari comprarsi una casa o viaggiare. A volte il soggetto truffato è anche invitato a consigliare amici o famigliare a fare il medesimo investimento.
Il Killing è l’inizio della fase discendente della parabola e, a questo punto, iniziano i problemi. Alla vittima viene offerto di fare un investimento su di un bonus a tempo, oppure su di un’offerta per acquistare dei biglietti per una vacanza romantica a due; in entrambi i casi l’operazione richiede un deposito elevato in breve tempo per non perdere l’occasione. Nel caso di trading di prodotti o investimenti ci si potrebbe trovare a dover raggiungere un numero minimo di operazioni o investimenti, chiaramente ogni volta che si si investe il target successivo aumenta in modo da rendere difficile l’arrivare alla meta. Se la vittima comunica che in quel momento non ha la disponibilità per l’investimento il truffatore si offre di pagare (sempre all’interno della piattaforma) la differenza, più soldi sono stati messi più l’investimento di questo passaggio è economicamente impegnativo.
Se la vittima è reticente ad investire nuovamente si passa alla manipolazione empatica: il truffatore fa sentire in colpa la controparte, dicendo che non di fida (come può non fidarsi? Non ha guadagnato fino ad adesso?), umiliandola dicendo che non ha il coraggio di osare, mettendo il dubbio l’impegno e la serietà che li lega. Cerca di convincere la vittima che anche i suoi soldi sono bloccati ma che, per esperienza, poi vengono subito sbloccati perché gli è già successo. Se ancora vi sono delle resistenze si passa alle intimidazioni, si minaccia di inviare le foto spinte, che sono state condivise precedentemente, all’eventuale coniuge, o ai colleghi di lavoro o di pubblicarle sui social.A questo punto la vittima investe gli ultimi denari disponibili.
L’ultimo passaggio, che prende il nome di Killed, è il più crudele, perché il truffato, oltre a perdere i soldi, subisce una violenza emotiva paragonabile ad una separazione. Viene chiesto ancora più impegno nell’investimento, se li si accusa di essere truffatori, gli scammers, controbattono che sono anche loro truffati e che non si fida di loro. Infine la piattaforma chiude l’account e la malcapitata vittima viene anche bloccata dal truffatore sia sui social che su whatsapp, telegram, telefono ed in ogni altro contatto che avevano.
Una vera e propria fabbrica di scam
Si potrebbe essere portati a pensare che dietro questo tipo di truffe si nasconda una persona sola ma la realtà, come testimoniato dal documentario del 2023 della BBC “The pig butchering romance scam”, è molto più complicata e triste, includendo vere e proprie organizzazioni criminali e la tratta di esseri umani.
Ogni anno centinaia di uomini e donne di origine prevalentemente asiatica vengono rinchiusi in compounds e costretti a lavorare 12 – 16 ore al giorno recitando la parte di “innamorati” per le vittime che vengono agganciate sul web.
Questi ragazzi e ragazze vengono invogliati a trasferirsi in altre città o nazioni con la promessa di avere un lavoro con un buon stipendio ed una vita migliore (a volte vengono anche rapiti); una volta arrivati a destinazione (il documentario parlava della provincia di Sihanoukville in Cambogia) la loro sorte non è molto diversa di quella di tanti altri immigrati che cercano fortuna affidandosi a promesse di sconosciuti: si accorgono che il lavoro che gli era stato promesso non esiste e l’abitazione è un dormitorio condiviso con altri sfortunati. All’interno di questa struttura vi sono non solo i dormitori ma anche sale di posa che riproducono ambienti di una casa normale (così che le vittime di scam che fanno videochiamate possano vedere che il loro interlocutore è una persona reale); i giovani rinchiusi non possono lasciare il complesso dove vivono e possono muoversi solamente tra il dormitorio e gli uffici dove delle guardie controllano che nessuno fugga; qua i ragazzi sono costretti a lavorare in turni di 12 – 16 ore, alcuni durante il giorno altri durante la notte: avendo vittime in tutto il mondo devono adeguarsi agli orari dei singoli continenti. Non mancano le punizioni fisiche: se uno scammer non rispetta le regole o se viene scoperto dalla sua vittima subisce delle violenze che possono andare dall’essere percosso con dei bastoni o colpito da teaser fino all’essere rinchiusi in una gabbia. Il documentario della BBC mostra scene raccapriccianti delle punizioni che subiscono questi malcapitati che, se fortunati subiscono contusioni che li obbligano a letto per un paio di giorni, mentre se non lo sono rischiano di avere braccia o gambe rotte.
Sempre nel documentario della rete britannica si parla del complesso di Huang Le che, dal 2016 anche grazie alle truffe online, è cresciuto fino ad avere, oltre che il compound che ospita i ragazzi e le ragazze costretti a lavorare come scammers, un casinò, piscine, supermercati ed anche una stazione di polizia. Com’è possibile tutto questo? Perché le organizzazioni criminali lavorano con l’appoggio del governo locale.
A seguito delle denunce del documentario (partito dalla segnalazione di un ragazzo cinese che era riuscito a fuggire) le autorità locali hanno negato di avere affari con le organizzazioni criminali e che, in seguito ad indagini hanno ricevuto 6 denunce da parte di 11 cittadini stranieri che chiedevano di dimettersi dal loro lavoro presso il casinò Majestic 2 di proprietà di un uomo d’affari di nome Kuong Li.
Malgrado il vice governatore di Preah Sihanouk, Long Dimanche, affermato che alcune delle scene erano presumibilmente accadute nel 2020, prima che le autorità “reprimessero” il complesso, la BBC ha affermato che il compound ha continuato a funzionare fino alla pubblicazione del documentario dell' 8 marzo 2023, più di quattro settimane dopo che alle autorità erano state fornite prove dettagliate che mostravano le attività criminali.
Non è dato sapere se il complesso abbia ricominciato a funzionare o se sia stato spostato da un’altra parte, ma certo questo mostra come questo tipo di truffa (che richiede tempo e denaro per essere fatta) non venga attuata da un singolo individuo ma da organizzazioni malavitose ben organizzare e preparate.
L’IA la nuova frontiera?
Sebbene su GitHub esistono già dei progetti legati alla creazione di deepfake in tempo reale e al face swap (scambio di volti) come DeepFaceLive che permette lo scambio di volti in tempo reale per lo streaming su PC o le videochiamate, o Deep-Live-Cam che (Simile a DeepFaceLive), offre la possibilità di scambiare volti in tempo reale e creare deepfake video con un solo clic e un'unica immagine, il vero futuro delle truffe online passera dall’intelligenza artificiale: come mostra un video su youtube, i motori di rendering come Unreal Engine 54, possono creare persone che sembrano reali anche quando non lo sono; se questi motori sono associati a software di motion capture5 “creare” persone con le quali i truffatori fanno interagire le vittime diventa non solo più semplice ma anche più economico. Sempre tramite IA si possono creare voci di qualunque tipo e parlare ogni lingua; non solo ma con l’aumentare delle capacità e dei modelli di machine learning creare chatbot che possono interagire autonomamente sarà il futuro delle truffe online.
A fianco delle persone costrette a lavorare come scammers la nuova frontiera del Pig Butchering passa quindi dalla virtualità più completa tramite l’utilizzo “perverso” l’intelligenza artificiale e i motori di rendering sempre più precisi.
Come comportarsi.
Il Sha Zhu Pan è un fenomeno che non riguarda solo chi viene truffato ma coinvolge la tratta di esseri umani, le grandi organizzazioni criminali, ed i risparmi delle persone che si trovano ad affrontare un momento difficile della loro vita e sono quindi fragili.
Come sempre il primo avviso che viene spontaneo dare è: se una cosa è troppo bella per essere vera probabilmente non lo è, quindi non cascarci, non lasciarci abbindolare da lusinghe di bei ragazzi o belle ragazze.
Il secondo consiglio è non vergognarsi e denunciare. Non bisogna aver paura di denunciare di essere stati truffati, certo il fatto di chiamare una truffa “macellazione del maiale” non aiuta le persone ad esporsi ma, come abbiamo visto, denunciare può aiutare non solo chi è vittima ma anche le presone che sono costrette a lavorare come schiavi.
Infine il terzo e più importante consiglio è quello di documentarsi da fonti attendibili, fidarsi di chi ha più esperienza e cercare di stare il più aggiornati possibile su quello che accade nel web. Quest’ultimo consiglio è il più difficile da seguire perché, non solo ci impone di confrontarci con i nostri bias cognitivi e con noi stessi, ma richiede tempo ed impegno.
1 Il Better Business Bureau (BBB) è un'organizzazione non profit fondata nel 1912. Il suo obiettivo principale è promuovere la fiducia nel mercato e aiutare i consumatori a risolvere i problemi con le imprese e le organizzazioni di beneficenza. Il BBB è composto da 92 organizzazioni locali indipendenti negli Stati Uniti e in Canada, coordinate sotto l'Associazione Internazionale dei Better Business Bureaus (IABBB)
2 Terrill "Cap" Caplan è un esperto riconosciuto a livello internazionale in operazioni di criminalità organizzata in Africa Occidentale, frodi ad avanzamento di fondi, truffe via internet, strumenti di negoziazione contraffatti e il relativo riciclaggio di denaro. Ha oltre 30 anni di esperienza in tecnologia dell'informazione e gestione della sicurezza. Nel 1999, Caplan ha sviluppato la prima applicazione web prevenitiva contro le truffe, che registrava e impediva ai truffatori e ai bot di entrare nei siti web protetti, forum e guestbook. Questo strumento e il database risultante sono ora utilizzati dalle forze dell'ordine internazionali e dagli investigatori delle truffe per individuare le posizioni ripetute dei truffatori e fornire intelligence in tempo reale sulle attività delle truffe
3 Un pool di mining è un gruppo di minatori di criptovalute che uniscono le loro risorse di calcolo (hashrate) per aumentare le possibilità di risolvere un blocco e ricevere la ricompensa associata. In pratica, i minatori collaborano mettendo insieme la loro potenza di calcolo per avere una probabilità maggiore di trovare nuove monete digitali e condividere le ricompense in base alla quantità di potenza di calcolo che ciascuno ha contribuito
4 Un motore di rendering come Unreal Engine 5 è un software avanzato utilizzato per creare contenuti in 3D in tempo reale. È progettato per aiutare sviluppatori di giochi e creatori di contenuti a realizzare esperienze visive incredibilmente realistiche e dettagliate. Unreal Engine 5 introduce funzionalità rivoluzionarie come Nanite e Lumen, che migliorano notevolmente la fedeltà visiva e la dinamica dei mondi virtuali. Nanite consente di creare modelli incredibilmente dettagliati senza compromettere le prestazioni, mentre Lumen offre illuminazione globale in tempo reale, rendendo le scene più realistiche
5 I software che sincronizzano il movimento delle persone con personaggi virtuali sono spesso chiamati motion capture (o mocap) software. Questi strumenti utilizzano telecamere e sensori per tracciare i movimenti del corpo umano e trasferirli a un personaggio virtuale in tempo reale. Alcuni esempi di software di motion capture includono Adobe Character Animator, iClone, e Unreal Engine con il suo sistema di motion capture integrato.
Bibliografia
Il 25 luglio 2024, Europol ha pubblicato il suo atteso IOCTA 2024 (Internet Organised Crime Threat Assessment). La pubblicazione, quest’anno, arriva in un momento critico dopo che massiccio blackout informatico causato da un aggiornamento difettoso del software di sicurezza di CrowdStrike1, ed il sabotaggio informatico che ha colpito le linee TGV francesi a ridosso delle Olimpiadi, ha evidenziato la debolezza delle infrastrutture moderne dovute alla loro dipendenza informatica. Il rapporto prende in considerazione le minacce che la criminalità comune porta ai singoli cittadini anzichè le infrastrutture e il quadro che viene dipinto non è dei più rassicuranti.
Cos’è IOCTA?
L’Internet Organised Crime Threat Assessment (IOCTA) è un rapporto strategico pubblicato annualmente da Europol, attraverso il suo Centro Europeo per la Criminalità Informatica. Questo rapporto fornisce un’analisi delle minacce online più recenti e dell’impatto della criminalità informatica all’interno dell’Unione Europea. La sua prima pubblicazione è del 2014 con l’obiettivo di fornire una panoramica delle minacce informatiche emergenti e delle tendenze criminali online nell’Unione Europea; successivamente (dal 2015 al 2019) il rapporto venne aggiornato annualmente per riflettere i cambiamenti nel panorama della criminalità in questo settore. Durante questo periodo, si è osservato un aumento significativo delle minacce legate ai ransomware2, alla frode nei pagamenti e allo sfruttamento sessuale online dei minori. Durante la pandemia di COVID-19 IOCTA ha evidenziato a un aumento delle attività criminali online, con un focus particolare su truffe legate alla pandemia e attacchi informatici contro infrastrutture sanitarie.
Dal 2021 al 2023 I rapporti stillati dall’Europol, tramite IOCTA, hanno continuato ad evidenziare l’evoluzione delle minacce, con crescente attenzione verso il crimine organizzato online, l’uso abusivo delle criptovalute e le tecniche di phishing.
Dalla sua introduzione rapporto è diventato uno strumento fondamentale per le forze dell’ordine e i responsabili politici nell’UE, fornendo informazioni cruciali per combattere la criminalità informatica in modo efficace.
Il rapporto 2024
Quest’anno il rapporto indica che nel 2023 (i dati si riferiscono sempre all’anno precedente) gli attacchi ransomware, lo sfruttamento sessuale dei minori (CSE) e la frode online sono rimaste le manifestazioni più minacciose della criminalità informatica nell'Unione Europea; gli attori che operano questo tipo di crimini è composto da soggetti vari che vanno dal singolo individuo alle reti criminali organizzate che dimostrano sempre più competenze e capacità. Sebbene alcuni criminali informatici che hanno preso di mira l'UE erano all'interno stesso degli stati membri dell’Unione, altri preferivano operare dall'estero, nascondendo le loro operazioni e i loro fondi illeciti in Paesi terzi.
Le tecnologie basate sull'intelligenza artificiale (AI) stanno rendono l'ingegneria sociale ancora più efficace e molte vittime hanno avuto difficoltà a distinguere un soggetto reale da un bot3. Le dinamiche del mercato criminale dei servizi di malware e di servizi di phishing4 assomigliano alle dinamiche delle aziende reali, mentre il commercio di dati rubati sta diventando la principale minaccia legata al crime-as-a-service (CaaS ovvero cybercriminali che vendono i loro servizio o prodotti per eseguire compiti criminali): attraverso il Dark web si riescono a trovare script, strumenti e persone per creare e-mail di phishing.
Criptovalute e dark web.
Secondo il rapporto, sebbene la principale criptovaluta richiesta da chi opera un ranswomware sia il bitcoin, a causa della sua facile reperibilità sul mercato, vi è un crescente uso anche di altre monete virtuali come ad esempio Monero. Il dato importante che hanno notato gli investigatori è che c’è sempre una maggiore conversione di queste criptovalute in steblecoin5. Alcune stablecoin hanno incorporato funzionalità di blacklist nei loro smart contract che consente alle forze dell'ordine di richiedere alle aziende di congelare le stablecoin che sono state identificate come parte del portafoglio di un sospetto. Purtroppo tramite applicazioni che fanno uso di dati criptati stanno nascendo gruppi che mettono in contatto persone che vogliono scambiare criptovaluta al difuori dei circuiti standard oltre a soluzioni bancarie clandestine situate in paese extra UE e/o l’uso di carte di debito per criptovalute, che possono essere utilizzate per convertirle rapidamente in contanti presso gli sportelli automatici.
La rete Tor6 rimane ancora il metodo principale per accedere al dark web, dove Exploit, XSS e BreachForum7 sono stati tra i forum di criminalità informatica più attivi nel 2023. I criminali informatici sono stati visti condividere conoscenze di hacking e commerciare dati rubati, strumenti di hacking e servizi di cybercriminalità con i servizi che fungono anche da piattaforma per i broker di accesso iniziale. Gli Exploit sono principalmente di lingua russa e sono accessibili sia attraverso il clear web che il dark web con una quota di iscrizione o tramite una reputazione verificata (come per accedere alle redroom del darkweb8).
Sempre tramite il darkweb si trovano (per tempo limitato in quanto tendono a chiudere per riapparire successivamente ad un altro indirizzo) siti dove comperare droga, acquistare i servizi più o meno legali, armi, medicinali senza ricette, eccetera. La maggior parte sono gestiti da soggetti mono venditori che, in questo modo, possono evitare di pagare le commissioni alle piattaforme. Questo ha portato anche a casi di “exit scam”, ovvero casi nei quali gli amministratori chiudono improvvisamente un mercato e rubano tutti i soldi depositati.
Tra i forum segnalati nel 2023 compaiono CryptBB e Dread. In particolare CryptBB è un forum chiuso per i criminali informatici, tra cui hacker e programmatori, che va dai principianti agli esperti (gli amministratori stessi lo promuovono come il forum più adatto ai principianti della criminalità informatica). Qua vengono offerti servizi di criminalità informatica, vendita di accessi al protocollo desktop remoto (RDP), “hacker a pagamento”, servizi di penetration test e bugreporting per i marketplace.
Dread, invece, è meno specialistico e i suoi contenuti variano dall'hacking al traffico di droga ed alle informazioni personali identificabili; con una base di oltre 400.000 utenti è considerato uno dei forum più popolari del dark web.
Infine, ma non per questo meno preoccupante, l’ IOCTA 2024 indica un aumento dell’uso, tramite il dark web, di strumenti e servizi che fanno uso dell’ intelligenza artificiale senza filtraggio. Il servizio Only Fake, ad esempio, vende documenti d'identità falsi generati dall'intelligenza artificiale che possono essere utilizzati per aprire conti online su servizi finanziari, aggirando le procedure Know Your Customer (ovvero un insieme di procedure utilizzate da aziende e istituzioni finanziarie per verificare l’identità dei propri clienti e valutare i potenziali rischi nel rapporto con essi allo scopo di proteggere l’azienda stessa e l’utente da tentativi di furto di identità, frodi online e pratiche di riciclaggio di denaro).
Ransomware-as-a-Service e Malware-as-a-service
Il modello di “Ransomware-as-a-Service” (RaaS) è un tipo di crimine informatico in cui i creatori di ransomware sviluppano e vendono il loro software dannoso ad altri criminali informatici. Questi ultimi, chiamati affiliati, utilizzano il ransomware per attaccare le vittime e chiedere riscatti. In cambio, i creatori del ransomware ricevono una percentuale del riscatto pagato.
Il rapporto enfatizza come i gruppi di ransomware che operano sotto questo modello abbiano cercato, dopo la chiusura dei servizi di Hive, BlackCat/ALPHV, di attirare affiliati capaci ai loro servizi, vantando che la loro infrastruttura è ospitata al di fuori dell’UE e del Nord America e che hanno una rigorosa politica di non registrazione dei log: le operazioni delle forze dell’ordine contro gli operatori di ransomware, infatti, danneggiano la reputazione dei gruppi nel sottobosco criminale e hanno un impatto sui loro affiliati. La chiusura dell’infrastruttura di un servizio di ransomware significa che gli affiliati perdono l’accesso al servizio, dove possono generare campioni di ransomware e monitorare lo stato delle loro vittime. Questo espone gli affiliati al rischio di essere identificati e potenzialmente causa loro la perdita di possibilità di pressione verso le vittime.
Uno dei fornitori più prolifici del mercato RaaS, LockBit è stato smantellato nel febbraio 2024 grazie a un’azione coordinata delle forze dell’ordine di 10 paesi. Purtroppo il suo posto è stato già preso da Akira, un nuovo gruppo che, data la rapida crescita della base di vittime e le loro capacità operative mature, è probabile che diventi una minaccia crescente nel prossimo futuro.
Nel 2023 si sono verificati diversi cambiamenti nel panorama del malware-as-a-service (MaaS). Dopo l'eliminazione dell'infrastruttura del malware Qakbot, i criminali informatici hanno reagito rapidamente e si sono rivolti ad altri fornitori di servizi di dropper/loader9 già affermati o emergenti. Le principali alternative a QakBot attualmente utilizzate dai criminali informatici sono IcedID, SystemBC, Pikabot, DanaBot e Smokeloader, che offrono capacità simili di offuscamento e consegna di payload dannosi ai sistemi infetti.
Schemi di frode online e di pagamento
Un altro focus su cui si sofferma il rapporto è quello degli schemi di frode online che appresentano una crescente minaccia criminale nell'Unione Europea che colpisce milioni di cittadini europei e si traduce in miliardi di euro rubati. L’aumento degli acquisti online, unita alla crescita di phishing-as-a-service e allo skimming digitale (il furto di informazioni sensibili dai siti web) rappresenta una grande minaccia non solo per i cittadini UE ma, soprattutto, per i commercianti elettronici.
Il metodo più utilizzato rimane ancora il phishing e le sue varianti come lo smishing (phishing via SMS/testo), lo vishing10 (phishing vocale) e lo spoofing11. Affianco a questi metodi tradizionali, il 2023 segna la nascita dello quishing, o phishing con codice QR. Quando una vittima scansiona un codice QR contraffatto, può essere reindirizzata a un sito web fraudolento che richiede informazioni personali o bancarie, oppure può scaricare un malware sul proprio dispositivo. Questo rende il quishing particolarmente insidioso, poiché i codici QR sono comunemente utilizzati in contesti quotidiani come ristoranti, musei e parcheggi.
Proprio come nel caso dei RaaS e MaaS esiste il phishing-as-a-service che è un mercato in rapida ascesa. Questi servizi forniscono prodotti, servizi e dati delle vittime che consentono a un numero sempre maggiore di reti criminali di impegnarsi, indipendentemente dal loro livello di organizzazione e competenza tecnica, di agire in questo ambito: chiunque può richiedere ai fornitori di phishing-as-a-service una pagina di phishing per qualsiasi banca o ufficio postale nell'UE.
Gli investigatori hanno rilevato diversi casi collegati a phishing bancario, con affiliati che gestiscono vari negozi web falsi che reindirizzano a false pagine web di banche e pagamenti in parallelo. Anche per questi servizi il metodo di pagamento è quello delle cripto valute e i servizi sono disponibili nella rete Tor online.
Una nota importante è quella che nel 2023 ha avuto un’ impennata l’utilizzo delle “shock calls” (Chiamate Shock): i truffatori contattano le vittime, spesso anziani, e le mettono sotto pressione emotiva per ottenere denaro o informazioni quali numero di conto e altri dati peronali.
Quello del commercio dei dati personali è, infatti, un altro dei punti evidenziati dal rapporto IOCTA 2024. I cyber criminali cercano di mira impossessarsi degli account delle vittime come online banking, account di posta elettronica o profili di social media. Attraverso queste pratiche i criminali sono anche in grado di impossessarsi dei soldi e di accedere ai servizi digitali delle vittime o a informazioni private sensibili che possono poi essere monetizzate online. Inoltre, poiché le banche trattano sempre più spesso i soldi persi attraverso truffe come negligenza da parte del legittimo proprietario del conto, gli schemi di frode che colpiscono i conti dei singoli rimangono un'attività a basso rischio e ad alto profitto per chi le perpetra.
Le frodi sugli investimenti continuano a rappresentare una minaccia fondamentale nell'UE. Alle vittime vengono offerti investimenti sicuri tramite crypto valute, spesso associati alla creazione di profili falsi di fondi di investimento reale. Alcune volte, vengono create situazioni ad hoc per cui la vittima installa applicazioni di gestione remota per la “correzione” di errori nel computer per la gestione delle transizioni. A quel punto il criminale ha, non solo l’accesso a tutti i conti, ma anche all’intero dispositivo della vittima.
L’utilizzo dell’intelligenza artificiale per la generazione dei contenuti rende questo tipo di frodi particolarmente pericolose, in particolare sono aumentate le truffe (malgrado il basso tasso di denunce dovute alla vergogna) delle “truffe amorose”. Tramite gli strumenti di intelligenza artificiale non solo i truffatori hanno maggior possibilità di raggiungere più vittime contemporaneamente, ma anche di migliorare le loro tecniche di ingegneria sociale e di interazione con esse. Le truffe romantiche tramite intelligenza artificiale (AI) funzionano a step successivi fruttando le emozioni e la buona fede delle persone: i truffatori utilizzano l’AI per creare profili falsi su siti di incontri e social media.
Tramite l'intelligenza artificiale possono generare immagini realistiche di persone inesistenti utilizzando tecnologie come i deepfake; una volta creato il profilo, i truffatori iniziano a interagire con le vittime, spesso utilizzando chatbot avanzati che possono sostenere conversazioni credibili e personalizzate. I truffatori lavorano per guadagnare la fiducia della vittima, spesso condividendo storie personali inventate e mostrando un interesse genuino. Possono anche utilizzare l’AI per clonare la voce di una persona cara alla vittima (spesso accedendo a dati disponibili nel dark web), rendendo la truffa ancora più credibile. Dopo aver instaurato una relazione virtuale, i truffatori iniziano a chiedere denaro. Le richieste possono essere giustificate da emergenze mediche, problemi finanziari improvvisi, piani per incontrarsi di persona o anche di investimenti sicuri. Una volta ottenuto il denaro, i truffatori spariscono, lasciando la vittima senza risposte e con un danno emotivo ed economico significativo.
Tramite il suo rapporto l’Europol evidenzia come Lo skimming digitale non solo è rimasto una minaccia chiave nel 2023 ma sta anche aumentando. Questa è una forma di frode informatica in cui i criminali rubano i dati delle carte di credito o di pagamento dai clienti di un negozio online. Questo avviene durante il processo di checkout, quando i dati vengono intercettati senza che i clienti o i commercianti se ne accorgano.
Gli autori iniettano codice dannoso (chiamato web skimmer) nel sito di un negozio online attraverso vari metodi e tecniche che vanno dall’ essere inserito direttamente nel server del sito web bersaglio o sfruttando una vulnerabilità in una piattaforma di e-commerce. I Web skimmer possono anche agire in un sito sfruttando una risorsa di terzi, in quest'ultimo caso, se una pagina contiene codice proveniente da un altro dominio, un aggressore può iniettare codice dannoso e aggirare la maggior parte delle misure di sicurezza. Una volta che il sito è colpito, quando un utente fa una transizione, i dati della sua carta vengono trasmessi anche al server dell’attaccante.
Sfruttamento sessuale dei minori
Il materiale sugli abusi sessuali sui minori (Child Sexual Abuse Material o CSAM) continua a proliferare online, incidendo fortemente sul lavoro delle autorità che, con un volume crescente di file da analizzare manualmente e le relative informazioni sui casi, si trovano ad aver bisogno di un supporto tecnologico innovativo per indagare su questo tipo di crimine, la cui produzione e diffusione rimane un problema importante, con una grande parte del materiale rilevato identificato come materiale esplicito autogenerato ovvero contenuti sessuali creati e condivisi dalle stesse vittime, spesso minorenni.
Il volume di materiale sessuale autogenerato costituisce una parte significativa e crescente del CSAM rilevato online, spesso ha come soggetti bambini, in particolare adolescenti e, in molti casi, è il risultato di scambi volontari tra pari ma può essere classificato come CSAM una volta diffuso a terzi senza il consenso della persona che lo ha inviato per prima.
Questo tipo di materiale è spesso anche il risultato di un'attività di grooming12 ed estorsione sessuale: l'autore identifica la vittima online, spesso su piattaforme di gioco o social media e, dopo aver guadagnato la sua fiducia attraverso il grooming, il criminale ottiene materiale sessualmente esplicito e lo usa come leva per estorsioni. Un senso di vergogna e la speranza che le minacce potrebbero smettere spesso portano le vittime a produrre più materiale sessuale auto-generato. Questo tipo di minacce non colpisce però solo i minori ma anche adulti ai quali, spesso viene anche chiesto del denaro: l' autore del reato minaccia la vittima di condividere l'immagine esplicita online o di inviarla a contatti vicini. La vittima paga spesso per vergogna e, in molti casi, il processo di estorsione dura per un tempo considerevole.
In precedenza abbiamo accennato alla red room del dark web. In questi spazi virtuali viene spesso perpetrato il “Live-Distant Child Abuse” (LDCA), una metodologia nella quale i trasgressori guardano abusi sessuali su richiesta con il sostegno di uno o più facilitatori che perpetrare l'abuso sulla vittima/e in cambio di pagamento. Questo tipo di crimine si distingue come la principale forma di sfruttamento sessuale commerciale dei minori online e come una delle principali fonti di CSAM sconosciuta. A volte il crimine viene fatto all’insaputa della vittima tramite il capping, che comporta la registrazione nascosta della vittima (ad es. in una videochiamata/sessione di live-streaming).
Forum e chat room sono ancora ambienti di rete essenziali per i trasgressori di CSAM e discutono abusi perpetrati e fantasie, tecniche per pulire i bambini e suggerimenti. Gli autori di reati più esperti di solito si collegano in forum sul dark web che sembrano sempre più specializzati e adattati alle preferenze sessuali. Questi delinquenti hanno livelli sempre più elevati di conoscenze tecniche e misure per nascondere le loro tracce. I forum hanno sezioni specializzate per le questioni tecniche con suggerimenti e opzioni di formazione. A differenza di quelli presenti nel dark web, i forum in chiaro, di solito non hanno una durata superiore ai due anni, in quanto, pur essendo spesso ospitati in server fuori UE, una volta identificati vengono chiusi. Per superare tali problemi, gli amministratori responsabili di questi forum creano siti mirror, tenendo una copia del suo contenuto e, ogni volta che il loro sito viene dismesso, lo ricreano rapidamente a un nuovo indirizzo. Le piattaforme di comunicazione end-to-end crittografate (E2EE) sono sempre più utilizzate dai trasgressori per lo scambio di Child Sexual Abuse Material e a fini di comunicazione.
Anche per quanto riguardi i reati legati al materiale sugli abusi sessuali sui minori (sottolinea il report), i modelli di intelligenza artificiale in grado di generare o alterare le immagini vengono utilizzati in modo improprio dai trasgressori per produrre materiale CSAM e per estorsione sessuale. Anche nei casi in cui il contenuto è completamente artificiale e non è raffigurata alcuna vittima reale, il materiale CSAM generato dall'intelligenza artificiale contribuisce comunque all'oggettivazione e alla sessualizzazione dei bambini.
La produzione di materiale fake tramite IA risulta ampiamente disponibile e non richiede elevati livelli di competenza tecnica, ampliando potenzialmente il numero e lo spettro degli autori e dei crimini: questi file possono essere facilmente utilizzati per il cyberbullismo o per l'estorsione sessuale. Inoltre, maggiore è il volume di CSAM artificiale in circolazione e più difficile diventerà identificare i trasgressori o le vittime attraverso il riconoscimento delle immagini.
Considerazioni finali
Uno degli aspetti che appare più evidente leggendo il report IOCTA 2024 è l’aumento dell’utilizzo dell’ intelligenza artificiale per creare truffe e frodi online, che crea nuove minacce che riguardano sia l'abuso di strumenti e servizi legittimi sia le loro versioni dannose create ad hoc dai criminali; il numero crescente di LLM13 senza filtro immediato emerso di recente è destinato a moltiplicarsi e ci saranno probabilmente sempre più pubblicità generate dall'intelligenza artificiale che attireranno potenziali vittime di frodi online. Inoltre Gli strumenti di intelligenza artificiale faciliteranno l'ingresso alla criminalità informatica ad individui con competenze tecniche limitate i quali saranno in grado di eseguire attacchi informatici e orchestrare schemi di frode online piuttosto sofisticati.
Per quanto riguarda l’Unione Europea appare evidente che, affianco al continuo monitoraggio da parte delle forze dell’ordine preposte dei crimini, sarà necessario iniziare una campagna di informazione e sensibilizzazione, nonché di cultura digitale a livello di singoli stati.
Il rapporto dell’ Europol, sebbene disegni una situazione a tinte fosche, non deve spaventarci ma portarci ad una maggior attenzione ai nostri comportamenti online.
Nel 1959 Alberto Manzi iniziò a condurre il programma “ Non è mai troppo tardi ” per la RAI, il cui scopo era quello di insegnare l’italiano a una classe virtuale, composta per lo più da adulti, in un periodo in cui il tasso di analfabetismo era altissimo. Tramite questo programma milioni di italiani impararono a leggere e scrivere. Allo stesso modo, visto l’uso sempre più intensivo delle tecnologie digitali, sarebbe il caso di iniziare una serie di “lezioni” sul modello del programma di Manzi destinata a trattare l’alfabetizzazione digitale: troppe persone utilizzano i dispositivi in maniera superficiale e spesso, con supponenza, pensano di sapere tutto dato che usano le applicazioni in maniera continua e intensa, quando in realtà non conoscono le cose basilari.
Bisogna ricordare ad esempio che, se mettiamo le foto dei nostri figli sui social, oggi possono essere prese e modificate tramite IA. Se su TikTok veniamo contattati da una bella cinesina che vive a Pechino che mi parla e mi invita ad essere suo amico, dobbiamo sapere che quest’app in Cina è bandita e che quindi, molto probabilmente, si tratta di una truffa. Ma, soprattutto dobbiamo ricordare che se una cosa è troppo bella per essere vera, probabilmente non lo è.
Bibliografia:
Internet Organised Crime Threat Assessment IOCTA 2024.pdf (europa.eu)
1 CrowdStrike è una società statunitense di sicurezza informatica fondata nel 2011, nota per la sua piattaforma di sicurezza CrowdStrike Falcon, che offre protezione avanzata. 19 luglio 2024,un aggiornamento difettoso del software di sicurezza CrowdStrike ha causato una serie di blocchi su milioni di dispositivi Microsoft Windows in tutto il mondo di aziende, enti pubblici e privati, causando disagi e danni economici.
2 I ransomware sono un tipo di malware (abbreviazione di “malicious software”) che blocca l’accesso ai dati o ai dispositivi della vittima, richiedendo un riscatto (in inglese, “ransom”) per ripristinare l’accesso.
3 Un bot IA (o chatbot) è un programma software che utilizza l’intelligenza artificiale per simulare una conversazione con gli utenti
4 Il phishing è una forma di truffa online in cui i malintenzionati cercano di ingannare le vittime per ottenere informazioni sensibili, come password, numeri di carte di credito o altre informazioni personali. Questo viene spesso fatto inviando email o messaggi che sembrano provenire da fonti affidabili, come banche o altre istituzioni, ma che in realtà sono falsi.
5 Le stablecoin sono un tipo di criptovaluta progettata per mantenere un valore stabile, ancorato a un altro asset come una valuta stabile (ad esempio il dollaro USA) o una merce (come l’oro). Questo le rende meno volatili rispetto ad altre criptovalute come Bitcoin o Ethereum
6 La rete Tor (The Onion Router) è un sistema progettato per garantire l’anonimato e la privacy online. Utilizza un meccanismo chiamato onion routing, che prevede la crittografia dei dati in vari strati, come una cipolla. Thor è utilizzata per proteggere la privacy e navigare nel Dark web
7 Un exploit è un codice o un’azione che sfrutta una vulnerabilità in un sistema informatico per eseguire operazioni non autorizzate. Il cross-site scripting (XSS) è un tipo di attacco informatico in cui un codice dannoso viene inserito in un sito web affidabile. Questo codice viene poi eseguito nel browser degli utenti che visitano il sito, permettendo agli attaccanti di accedere a informazioni sensibili come cookie e token di sessione. BreachForum è un forum online utilizzato per la compravendita di dati rubati e altre attività illegali legate alla sicurezza informatica.
8 Le redroom sono camere virtuali dove circolano immagini di tutte le tipologie, violenza su minori in situazioni anche live, e dove gli stessi utenti possono interagire e dare istruzioni anche se dall’altra parte dello schermo.
9 I dropper e i loader sono componenti chiave nelle catene di infezione dei malware. Un dropper è un tipo di malware progettato per installare altri malware sul dispositivo della vittima. Un loader è simile a un dropper, ma con una funzione leggermente diversa. Dopo che il dropper ha rilasciato il malware, il loader si occupa di scaricare e caricare ulteriori componenti malevoli dal server di comando e controllo (C2). Questo permette agli attaccanti di aggiornare o modificare il malware in tempo reale
10 Il vishing è una forma di truffa che combina la voce (voice) con il phishing. I truffatori utilizzano telefonate o messaggi vocali per ingannare le vittime e ottenere informazioni personali sensibili, come numeri di carte di credito o dati di accesso. Spesso si spacciano per rappresentanti di istituzioni affidabili, come banche o enti governativi, per rendere la truffa più credibile.
11 Lo "spoofing" è un tipo di cyberattacco in cui un hacker si camuffa da entità legittima per imbrogliare altre reti informatiche. Viene usato per impadronirsi di dati, diffondere malware o superare dei controlli di accesso. Gli attacchi di e-mail spoofing sono fra i più diffusi e comportano spesso cose come la richiesta di dati personali o transazioni finanziarie.
12 Il grooming (dall’inglese “groom” – curare, prendersi cura) rappresenta una tecnica di manipolazione psicologica che gli adulti potenziali abusanti, utilizzano per indurre i bambini/e o adolescenti a superare le resistenze emotive e instaurare una relazione intima e/o sessualizzata.
13 Il Large Language Model è un tipo di intelligenza artificiale che comprende e genera testo in linguaggio naturale.
Stareste seduti su di una bomba con il detonatore nelle mani di qualcun altro?
Se la risposta è no allora considerate che continuare ad utilizzare determinate app potrebbe equivalere ad essere seduti su di una bomba della quale non abbiamo nessun controllo.
L’allarme non è recente, ma solamente è con lo scontro sempre più acceso tra USA e Cina sull’uso di Tick Tock in territorio Nord Americano che la preoccupazione su determinate applicazioni entra a gamba tesa nella vita di delle persone normali, e non solo degli addetti ai lavori.
Il problema del trattamento dei dati personali e della privacy
In Europa, ancor più che negli Stati Uniti, la privacy ed il trattamento dei dati è molto sentito. In effetti noi Europei abbiamo il regolamento più stringente, che implica sempre il consenso da parte dell’utente sulla raccolta e l’utilizzo dei dati e ne impone la chiarezza su quale tipo di utilizzo viene fatto dei dati raccolti e dove questi sono conservati ma, soprattutto, pone dei limiti sull’utilizzo che lo stato può fare dei dati che le aziende raccolgono.
Negli Stati Uniti la legislazione è molto più blanda: non esiste una legge federale sulla privacy generale, diversi settori sono regolati da leggi diverse (ad esempio il regolamento per le telecomunicazioni è differente da quello sulla salute o sui i servizi finanziari), il consenso non sempre necessario e viene messo in rilievo una maggiore enfasi sulla sicurezza dei dati rispetto alla loro privacy; da sottolineare che tra USA ed Unione Europea esisteva un accordo, chiamato “Privacy Shield”, che regolava il trasferimento dei dati personali tra i due, in via di sostituzione con il “EU-U.S. Data Privacy Framework” 1.
In Cina, la legge sulla protezione dei dati personali, che è entrata in vigore nel 2017 con il nome PIPL, si ispira al GDPR europeo ma con alcune differenze: il PIPL si applica a tutte le organizzazioni che trattano dati personali di cittadini cinesi, indipendentemente da dove si trovano, il consenso può essere implicito o esplicito e, per finire, è più focalizzato sulla sicurezza dei dati e sul controllo statale. Nel paese asiatico, quindi, il sistema della privacy è in mano allo stato che ne controlla ogni aspetto.
Dopo aver dato un rapido riassunto di come è considerata la privacy in Europa, Usa e Cina cerchiamo di capire perché l’utilizzo di certe App cinesi può essere un rischio, non solo per la privacy ma, ma anche per i nostri dispositivi finanche alla sicurezza nazionale.
TEMU e Grizzly Research LLC
ByteDange è un’azienda cinese con sede a Pechino specializzata in tecnologie internet. Tra le sue creazioni vi sono la piattaforma di notizie Toutiao, l’app chiamata Neihan Duanzi (fatta chiudere nel 2018 dalla censura del governo cinese) mentre tra le app acquisite compare la famosa piattaforma TikTok. Detiene anche delle partecipazioni azionarie di PDD Holding. Da sottolineare che, a detta sia di ByteDange che di PDD, le due aziende rimangono indipendenti.
Per chi non lo sapesse PDD Holding è l’azienda che nel 2022 ha lanciato la piattaforma di acquisti online Temu: una piattaforma di e-commerce che possiamo considerare equiparabile a Wish o Aliexpress più che ad Amazon o Ebay ma, a detta di chi l’ha provata, a differenza delle due concorrenti ha tempi di spedizione più brevi e prodotti di qualità superiore.
Importante è considerare che Temu nasce come miglioramento dell’ app di “social shopping” 2 PinDuoDuo che venne rimossa dal Google Play Store per mancanza di sicurezza (a detta di google sembra che installasse degli spyware negli smartphone). Alla chiusura dell’app buona parte del team che vi lavorava venne spostato da PDD a lavorare su Temu.
Visto questi precedenti, a settembre 2023, la società Grizzly Research LLC pubblica una lunga ed interessante ricerca sull’app Temu basata, a dire della società di analisi, sulla decompilazione del codice sorgente (per la precisione della versione di Android ma il report contiene un breve esame anche dell’app per IOs).
Per correttezza c’è da sottolineare che il Report è risultato subito controverso: Grizzly Research LLC (come si legge sul sito di quest’ultima) “is focused on producing differentiated research insights on publicly traded companies through in-depth due diligence”(si concentra cioè nella produzione di report di aziende quotate in borsa) e i suoi reports sono sempre molto accurati ma, in questo caso, sebbene affermino di aver consultato diversi specialisti in cyber security, non ne viene citato nessuno specificatamente e questo ha fatto dubitare alcuni utenti entusiasti dell’app dell’accuratezza e veridicità della ricerca.
Prima di analizzare i punti più salienti da un punto di vista tecnico vorrei soffermarmi su un punto che Grizzly Research ha considerato importante: la così detta insostenibilità finanziaria del modello Temu.
Secondo alcuni analisti l’azienda perderebbe costantemente soldi nello spedire prodotti senza costi di spedizione e a così basso prezzo, anche nel caso di social shopping (la perdita stimata è di circa 30$ a ordinazione). Questo farebbe pensare che l’app abbia principalmente il compito di raccogliere iscritti e fare proliferazione in modo da poter vendere illegalmente dati rubati per sostenere un modello di business altrimenti destinato al fallimento. Ad accentuare questo dubbio il fatto che, nella fase di start up, vi erano incentivi aggiuntivi quali la possibilità di vincere un Play Station se si invitavano gli amici ad iscriversi e questi lo facevano, oltre altre offerte a prezzi veramente bassi.
Da un punto di vista tecnico le possibili vulnerabilità (se possiamo chiamarle così anziché vere e proprie trappole informatiche) evidenziate dal report sono parecchie. Tra queste le più preoccupanti sono la presenza della funzione runtime.exec(). Questa funzione (che nel codice sorgente è rinominata “package compile”) può creare nuovi programmi eseguibili, i quali non sono visibili alle scansioni di sicurezza prima o durante l’installazione dell’app, rendendo possibile a Temu di passare tutti i test per l’approvazione negli store di app. Sempre nel codice sorgente decompilato di Temu, ci sono riferimenti a permessi che non sono elencati nel file Android Manifest3 dell’app, il quale è la fonte standardizzata per controllare i permessi. Questi permessi non menzionati includono richieste per l’accesso a funzioni molto invasive come CAMERA, RECORD_AUDIO e ACCESS_FINE_LOCATION.
Un dubbio riguardo il codice è anche la richiesta da parte dell’app di verificare se, nel telefono sul quale è installata, siano presenti i permessi di root4. Molti utenti abilitano questa funzione del dispositivo per poter installare software al difuori dello store ufficiale o per personalizzare ulteriormente il proprio smartphone. Il fatto che un programma voglia verificare se il dispositivo abbia o meno questi permessi non ha nessun senso. Meno preoccupante è invece la presenza di codice offuscato (che viene comunemente utilizzato per proteggere il codice del programma in alcune parti proprietarie o che non si vuol far conoscere).
Un capitolo a parte riguarda la funzione Debug.isDebuggerConnected(). Questa funzione è presente anche in altre applicazioni (come ad esempio Amazon) e permette di verificare se il telefono entra in modalità debugging. Nell’articolo, il riferimento alla funzione si trova nella sezione che discute le caratteristiche di spyware/malware dell’app Temu; secondo il report di Grizzly Research questa funzione ha lo scopo di ostacolare o nascondere l’analisi dell’app e, molto probabilmente, per cambiare il comportamento della stessa se viene ispezionata dinamicamente da un analista. Questo è considerato un enorme segnale di allarme perché suggerisce che il software potrebbe cercare di evitare la rilevazione durante le scansioni di sicurezza automatizzate. Il report di Grizzly Research mostra molte altre criticità che a volte si intersecano anche con la complessità e poco chiarezza dei termini sulla privacy ed il loro consenso, nonché della complessità della richiesta ai permessi da parte dell’app quando si installa, uno per tutti la funzionalità di caricamento file basate su un server di comando collegato alla loro API us.temu.com, il che significa che una volta che un utente concede il permesso di archiviazione file all’app Temu, l’app sarà in grado di raccogliere qualsiasi file dal dispositivo dell’utente e inviarli ai propri server.
Il caso ByteDange e l’occidente
Il caso di ByteDange e Tick Tock è più controverso e si mescola alla percezione comune che si ha del social network, diventando un caso di scontro politico negli Stati Uniti, non solo tra Biden e Trump, ma anche tra Repubblica Popolare Cinese e la Camera dei Rappresentanti del Congresso Americano.
Già durante il suo mandato l’ex presidente degli Stati Uniti Donald Trump, nel 2020, ha cercato di vietare TikTok negli Stati Uniti, a meno che l’app non fosse stata venduta a un’azienda americana, sostenendo che la proprietà cinese della stessa avrebbe dato al governo autoritario di Pechino accesso alle informazioni personali degli utenti americani. L’app TikTok, negando queste accuse investì nella creazione di Project Texas, al fine di confinare i dati degli utenti americani su server statunitensi. A distanza di 4 anni, con la presidenza Biden, il problema si ripresenta solo che questa volta l’ex presidente Trump è contrario alla chiusura di TickTok negli USA.
Cerchiamo quindi di fare un po’ di chiarezza considerato che i motivi per i quali si sta tanto discutendo del pericolo rappresentato da TikTok sono parecchi.
Già nel 2020 il giornale The Washington Post in un articolo intitolato "TikTok privacy concerns grow after teen's videos are posted without her consent" raccontava la storia di Sarah (nome di fantasia trattandosi di una minorenne) una studentessa di 16 anni del New Jersey, che ha installato TikTok senza creare un account. La giovane studentessa ha quindi iniziato a guardare video e a creare delle bozze, senza però mai pubblicare nulla. Tuttavia, un giorno Sarah ha scoperto che alcuni dei suoi video erano stati pubblicati online senza il suo consenso: i video erano stati copiati da altri utenti e condivisi su altre piattaforme social, come Instagram e YouTube.
Ma il caso di Sarah non è un caso isolato: nel 2021, un’altra studentessa di 17 anni della California, Ashley, ha avuto un'esperienza simile. Ha installato TikTok e ha iniziato a creare video, ma non ha mai pubblicato nulla. Anche in questo caso, la ragazza, ha scoperto che alcuni dei suoi video erano stati pubblicati online da un altro utente che aveva creato un account falso con il nome di Ashley e aveva postato i suoi video senza il suo consenso.
Di casi analoghi ne sono stati segnalati molti e tutti evidenziano una serie di problemi legati alla privacy (TikTok non rende facile per gli utenti controllare chi può vedere i loro contenuti e come vengono utilizzati i loro dati) e all’eccessiva quantità di informazioni personali raccolte, tra le quali figurano quelle di geolocalizzazione, di navigazione ed i dati biometrici che includono “faceprints” (impronte facciali) e “voiceprints” (impronte vocali)5.
ByteDange afferma che TikToka chiederà il consenso agli utenti prima di raccogliere queste informazioni biometriche ma che, tuttavia, ciò avverrà solo quando richiesto dalla legge, omettendo di specificare quale legge richieda il consenso. In pratica non è chiaro se, in stati come Illinois, Washington, California, Texas e New York, che hanno leggi sulla privacy biometrica questa verrà chiesta mentre in altri che non l’hanno non verrà chiesta. Altri dati ai quali TikTok accede comprendono la rete Wi-Fi a cui ci si collega, tutti i contatti memorizzati in rubrica, la funzione di registrazione audio e tutti gli appuntamenti inseriti nel calendario.
Effettuando uno screening con uno strumento tecnico di analisi per app, come quello dell’organizzazione senza scopo di lucro Exodus Privacy6, ci si accorge che TikTok installa una serie di tracciatori di proliferazione tra i quali (oltre al classico di analytics di Google e quelli di condivisione con Facebook) quello di VKontakte, il principale social network della federazione Russa.
Sebbene tutte queste criticità sarebbero sufficienti a far, se non altro, aprire un’ inchiesta sull’app, il vero motivo per il quale la Camera dei Rappresentanti del Congresso Americano ha deliberato di chiudere TikTok nel territorio degli USA riguarda anche altre motivazioni tra le quali la gestione dell’algoritmo che presenta i video agli utenti: questo è progettato per essere altamente coinvolgente e può portare alla dipendenza e a danni alla salute mentale, soprattutto nei giovani (che ne sono i principali utilizzatori). Inoltre, ByteDange non è trasparente su come funziona il suo algoritmo e questo rende difficile per gli utenti capire come i loro contenuti vengono selezionati e presentati: algoritmo di TikTok è in grado di manipolare i contenuti che essi vedono, un fatto che potrebbe essere utilizzato per diffondere disinformazione, propaganda o per influenzare elezioni o referendum (da qua si può intuire perché l’ex presidente Trump che prima era contrario a TikTok adesso non vuole che venga oscurato).
Sebbene non vi siano prove concrete che l’app stia effettivamente utilizzando il suo algoritmo per danneggiare gli americani, le preoccupazioni della Camera sono sufficientemente gravi da aver spinto i suoi membri a votare una risoluzione per vietare l'app sui dispositivi governativi.
Le paure degli Stati Uniti non vanno assolutamente ignorate: va infatti ricordato che ByteDance ha una partnership strategica con il Ministero cinese della pubblica sicurezza che comprende anche la collaborazione su "attività offline" non specificate. D’altronde nel 2019, ByteDance ha formato joint venture con Beijing Time, un editore controllato dal comitato municipale del PCC di Pechino e, nel giugno 2022, ha collaborato con Shanghai United Media Group per lanciare un piano per sviluppare influencer nazionali ed esteri. L’influenza della censura della Cina è tale che nel aprile 2020, la Cyberspace Administration of China ha ordinato a ByteDance di rimuovere il suo strumento di collaborazione in ufficio, Lark (una piattaforma di collaborazione aziendale), perché poteva essere utilizzato per aggirare la censura di Internet.
Non bisogna, infatti, mai dimenticare che le aziende cinesi sono soggette a numerose leggi e normative che le obbligano a cooperare con il governo cinese e che, oltre a queste leggi, il governo cinese ha anche una serie di strumenti a sua disposizione per costringere le aziende a cooperare.
Ma se negli Stati Uniti TikTok non se la passa bene le cose non vanno meglio nel vecchio continente. L’ Europa ha multato l’azienda proprietaria del software per 45 milioni di euro per la violazione della privacy dei minori e per la mancanza di trasparenza. In particolare l’app, stando alle motivazioni dell’ammenda, ha raccolto illegalmente i dati di bambini di età inferiore ai 13 anni senza il consenso dei genitori, indirizzando a questi pubblicità mirate. La sanzione fa scalpore in quanto si tratta della più grande multa mai comminata dall'Unione Europea per una violazione del GDPR (General Data Protection Regulation). Oltre alla multa, però l'Unione Europea ha ordinato a TikTok di interrompere la raccolta illegale dei dati dei bambini, fornire agli utenti informazioni più chiare su come vengono utilizzati i loro dati e di rendere più facile per gli utenti modificare le proprie impostazioni sulla privacy.
Tencent (WeChat) ed il controllo del Governo Cinese
Il 30 November 2023 il Il NUKIB7 pubblica sulla sul suo sito una pagina di informazioni che mette in guardia sull’utilizzo dell’app WeChat di Tecent.
A differenza delle aziende viste precedentemente, sebbene sia una società privata, il governo cinese ha una partecipazione significativa in Tencent attraverso diverse entità statali e questo significa che ha un certo controllo sulla società e ne può influenzare le decisioni. Molti dipendenti dell’azienda sono membri del Partico Comunista Cinese (ovvero il governo) e quest’ultimo può censurare i contenuti su WeChat e ordinarne la rimozione determinate app o servizi.
L’allerta Sicurezza lanciata dal NUKIB riguarda essenzialmente il grande volume di dati che l’app raccoglie dagli utenti e il fatto che questi ultimi possono essere utilizzati per cyber attacchi mirati. Da quello che si legge nel rapporto dell’agenzia di sicurezza Ceca, il Bureau of Industry and Security8 degli USA segnala che i servizi di intelligence cinesi conducono operazioni di influenza contro gli interessi della Repubblica Ceca, con un’attività elevata nel paese e nello spazio cibernetico anche tramite l’app di Tecent.
È bene ricordare che WeChat è già stata bandita in India, Canada e alcuni stati degli USA e che nel 2023 i Paesi Bassi hanno emesso una raccomandazione per i dipendenti governativi di non utilizzare app esprimendo preoccupazione che il governo cinese la possa utilizzare per spiare i cittadini olandesi o per interferire nelle elezioni.
Il governo Indiano, invece, ha bandito WeChat (insieme ad altre 58 app cinesi) perché veniva utilizzata per diffondere disinformazione e propaganda anti-indiana. Il divieto di WeChat è avvenuto in un momento di tensione tra India e Cina a causa di un conflitto al confine himalayano. Sebbene le motivazioni del Governo Indiano riguardino la poca trasparenza e l’utilizzo dei dati dei cittadini indiani da parte della Cina, e che (a detta del governo di Nuova Deli) il blocco verrà rimosso non appena queste criticità saranno risolte, l’app in India risulta ancora bloccata.
Giochi politici o vera emergenza?
L’annuncio della Camera degli Stati Uniti ha fatto subito alzare la testa al Governo Cinese che ha dichiarato tramite il Ministro degli Esteri Wang Wenbin “Un paese che si vanta della libertà di parola e afferma di essere un’economia di libero mercato è disposto a usare il potere dello Stato per reprimere specifiche aziende. Questa è la vera ironia”. La vera ironia sta proprio nelle parole del ministro perché è bene ricordare che Facebook, Youtube, nonché la stessa TikTok nella versione internazionale, oltre a moltissime altre applicazioni sono bloccate in Cina.
Ma il Partito Comunista Cinese non si limita solamente a bloccare determinati siti, app o servizi quali Netfix o DropBox ma, attraverso un complicato sistema normativo e tecnologico chiamato “Great Firewall”9 monitorizza e censura tutto il traffico in entrata nel paese. Il sistema è molto complesso e meriterebbe da solo una trattazione separata ma, visto che questo non è lo scopo dell’articolo lo tralasceremo per ora. Il motivo per il quale ne abbiamo accennato, a parte il fatto della doppia ironia delle accuse del ministro Wang Wenbin è che ci fornisce l’idea di come i social network ed internet siano considerati dal Governo Cinese: uno strumento atto a perseguire i propri fini e, proprio per questo motivo la maggior parte delle app che vengono da lì devono essere considerate come possibili “armi”.
Rifacendoci al precedente articolo “Elezioni Europee -e non- nell’era della post-verità e delle AI” possiamo riflettere di quale pericolo sia, non solo la falsa informazione, ma anche il fatto che i nostri dati, le nostre abitudini ed i nostri interessi siano nelle mani di regimi non democratici.
Pensiamo al caso della Brexit e di come il microtargheting10 operato da Cambridge Analytica abbia influenzato l’esito del referendum: in un primo momento l’azienda ha utilizzato i dati raccolti da Facebook per creare profili psicologici di milioni di persone. Questi profili sono stati poi utilizzati per indirizzare messaggi pubblicitari personalizzati agli elettori, con l'obiettivo di influenzare il loro voto.
Ma non solo questo! Cambridge Analytica ha identificato e preso di mira opinion leader11 e influencer sui social media, i quali sono stati poi utilizzati per diffondere messaggi pro-Brexit a un pubblico più ampio.
È appunto guardando indietro all’esperienza Brexit che dobbiamo preoccuparci della raccolta dei nostri dati e del loro utilizzo e conservazione da parte di potenze straniere, soprattutto in questo particolare momento storico.
Rimane poi un’ultima considerazione da fare: immaginate un dipendente del ministero della difesa o dei servizi segreti che ha un telefono cellulare compromesso sul quale una nazione straniera può installare qualsiasi applicazione a sua insaputa o che, quando è in ufficio collegato alla rete wi-fi, attraverso di essa avere accesso a tutti i file piuttosto che disabilitare i radar o i sistemi di intercettazione.
Uno scenario del genere veniva mostrato nella quinta stagione della serie televisiva “The Last Ship”: attraverso un telefono cellulare compromesso venivano disabilitati i sistemi di difesa della Marina Militare Americana, permettendo ad una coalizione di forze straniere di annientare la maggior parte della forza navale USA.
Ma quello che ancora nel 2019 sembrava fantascienza oggi potrebbe essere uno scenario reale.
Riferimenti
1 Lo Scudo Europeo per la Privacy (EU-U.S. Privacy Shield) era un accordo tra l'Unione Europea e gli Stati Uniti che permetteva il trasferimento di dati personali dall'UE agli Stati Uniti senza ulteriori restrizioni. L'accordo si basava su un sistema di autocertificazione, in cui le aziende statunitensi che desideravano ricevere dati personali dall'UE dovevano impegnarsi a rispettare determinati principi di protezione dei dati. La CGUE ha invalidato lo Scudo europeo per la privacy perché ha rilevato che le leggi statunitensi sulla sorveglianza non garantivano un livello adeguato di protezione dei dati personali. La Commissione Europea e gli Stati Uniti hanno annunciato un nuovo accordo sul trasferimento di dati, denominato "EU-U.S. Data Privacy Framework". Il nuovo accordo dovrebbe fornire garanzie più forti per la protezione dei dati personali trasferiti dall'UE agli Stati Uniti.
2 L’idea di social Shopping alla base di Pinduoduo prevede prezzi più vantaggiosi per chi decide di fare la spesa in compagnia: la piattaforma mette a disposizione ogni singolo prodotto a due prezzi differenti. Il primo è più alto e rappresenta il costo nel caso in cui l’utente decidesse di acquistare in solitaria; il secondo invece, più basso, rappresenta la cifra che dovrà essere sborsata per accaparrarselo nel caso di partecipazione del numero di utenti richiesto. Al termine stabilito per la vendita, di norma 24 ore, la piattaforma verifica il raggiungimento della soglia: in caso positivo l’acquisto risulta effettuato e spedito entro 48 ore, con l’acquirente che ha fatto partire il gruppo di acquisto che riceve il prodotto gratuitamente a casa. In caso negativo, l’acquisto viene annullato e gli utenti ricevono il rimborso della somma versata.
3 Ogni applicazione Android dev'essere accompagnata da un file chiamato AndroidManifest.xml nella sua direcotry principale. Il Manifest raccoglie informazioni basilari sull'app, informazioni necessarie al sistema per far girare qualsiasi porzione di codice della stessa. Tra le altre cose il Manifest presente in ciascuna app del Play Store si occupa di dare un nome al package Java dell'applicazione, che è anche un identificatore univoco della stessa, descrive le componenti dell'applicazione (attività, servizi, receiver, provider, ecc.), nomina le classi e pubblica le loro "competenze", determina quali processi ospiteranno componenti dell'applicazione, dichiara i permessi dell'app, e i permessi necessari alle altre app per interagire con la stessa, dichiara il livello minimo di API Android che l'app richiede e, in fine, elenca le librerie necessarie all'app.
4 L’attività di rooting è un processo informatico attraverso il quale un utente normale può ottenere il controllo completo del dispositivo, ripetendo azioni solitamente messe in campo dagli sviluppatori. In questo modo diventa possibile variare alcuni parametri, come le prestazioni, modificare il sistema operativo o agire sul dispositivo da remoto, per fare alcuni esempi.
5 TikTok non raccoglie direttamente dati biometrici come impronte digitali o scansioni del viso, tuttavia, può raccogliere informazioni biometriche dai contenuti degli utenti, come Impronte facciali (TikTok può utilizzare il riconoscimento facciale per identificare le persone nei video e per applicare filtri ed effetti e può anche essere utilizzata per creare avatar 3D basati sul viso dell'utente). Le impronte vocali che raccoglie TikTok le può utilizzare il riconoscimento vocale per identificare le persone che parlano nei video e per aggiungere didascalie automatiche. L'app può anche essere utilizzata per creare effetti vocali e per personalizzare la pubblicità. TickTock utilizza l'analisi del corpo per identificare la forma del corpo, la postura e i gesti degli utenti nei video. Anche in questo caso può anche essere utilizzata per creare effetti speciali e per personalizzare la pubblicità.
6 Exodus privacy è uno strumento potentissimo in grado di analizzare, alla ricerca di traccianti e permessi richiesti, praticamente ogni app presente su Google Play o store OpenSource F-Droid
7 Il NUKIB (National Cyber and Information Security Agency) è l'agenzia nazionale per la sicurezza informatica e cibernetica della Repubblica Ceca.
8 Il “BIS” o Bureau of Industry and Security, un’agenzia del Dipartimento del Commercio degli Stati Uniti. Questa agenzia è responsabile della regolamentazione delle esportazioni commerciali e di sicurezza, comprese le tecnologie dual-use e i beni militari. Il BIS gioca un ruolo chiave nel controllo delle esportazioni per motivi di sicurezza nazionale e interessi di politica estera.
9 Il Great Firewall cinese, letteralmente "Grande Muraglia del fuoco", è un sistema normativo e tecnologico usato dal governo cinese per monitorare, filtrare o bloccare i contenuti internet accessibili dagli utenti all'interno del paese. È nato come progetto per separare in modo selettivo il cyberspazio cinese dal mondo esterno, evitando che i cittadini cinesi accedano a informazioni ritenute dannose o potenzialmente destabilizzanti per gli interessi del paese.
10 Il microtargeting è una forma di pubblicità online profilata che analizza i dati personali – come le specifiche ricerche online dell’utente, i dati di navigazione o il comportamento online – al fine di identificare gli interessi dell’utente con lo scopo di influenzare le sue azioni, portandolo, ad esempio, a cliccare su un determinato banner perché di suo interesse.
11 L'opinion leader è un utente attivo dei media che interpreta il significato o il contenuto dei messaggi mediatici per utenti medio-bassi dei media. Tipicamente l'opinion leader è tenuto in grande considerazione da coloro che accettano le sue opinioni.
Bibliografia
Norme per la protezione dei dati personali all’interno e all’esterno dell’UE.
Questions & Answers: EU-US Data Privacy Framework
GRIZZLY RESEARCH "We believe PDD is a Dying Fraudulent Company and its Shopping App TEMU is Cleverly Hidden Spyware that Poses an Urgent Security Threat to U.S. National Interests"
Exodus privacy
NUKIB "Mobile App Security Threat Alert: WeChat by Tencent"
Lista siti e app bloccati in Cina
A settembre 2023 Vera Jourova, commissario per i valori e la trasparenza dell'Unione Europea, ha dichiarato pubblicamente che X (ex Twitter) è la piattaforma con il “più alto rapporto di post di dis/misinformazione” (largest ratio of mis/disinformation posts) tra le piattaforme che operano anche in Unione Europea. Nulla di strano in questo visto che, da quando è stata acquistata da Musk, la storica piattaforma ha attuato una serie di cambiamenti culminati con la decisione di ritirarsi dagli impegni di rispettare il codice di condotta volontario sulla disinformazione del 2022.
A pochi mesi dalle elezioni europee c’è da chiedersi quanto la disinformazione e la propaganda possano influenzare l’esito degli scrutini e quanto e quali attori ne possono trarre beneficio.
Bibliografia:
- European Union commissioner blasts X over disinformation track record | CNN Business
- Codice di condotta sulla disinformazione 2022 | Plasmare il futuro digitale dell'Europa
- EEAS-2nd-Report on FIMI Threats-January-2024_0.pdf (europa.eu)
- Desinformation aus Russland: Auswärtiges Amt deckt pro-russische Kampagne auf - DER SPIEGEL
- Securing Democracy In the Digital Age
- Carole Cadwalladr: Facebook's role in Brexit -- and the threat to democracy | TED Talk
- Brexit: The Uncivil War (film Tv 2019)
Ad aprile di questo stesso anno avevo scritto un articolo dove parlavo dell’intelligenza artificiale e di come vi fossero paure (talvolta infondate) riguardo questa nuova tecnologia.
A distanza di qualche mese, dopo che il garante per la privacy ha rimosso il blocco all’utilizzo di ChatGPT e che l’unione europea ha licenziato il testo “AI ACT”, ho deciso di tornare a parlare di Intelligenza Artificiale generativa ma da un punto di vista più “umano”.
Visto che sempre più spesso viene utilizzata l’AI per generare contenuti mi sono chiesto quanto questi contenuti siano realmente di qualità e fino a che punto siano difficili da riconoscere da quelli creati da esseri umani.
L’utilizzo che sto facendo dei verbi “generare” e “creare” in riferimento, con il primo alle intelligenze artificiali generative e con il secondo all’ingegno umano, non sono per nulla casuali. Sono, infatti, profondamente convinto che il processo di creazione sia tipico dell’essere umano e della sua consapevolezza di essere un individuo unico e pensante; il cartesiano “Cogito ergo sum” è, a mio avviso, un processo mentale solamente umano che le AI non potranno mai raggiungere.
I test
Ho deciso quindi di fare una serie di esperimenti: ho chiesto a due AI gratuite (ChatGPT 3.5 e il Chatbot di Skype) di creare tre articoli su specifici argomenti. Come base per due di essi ho deciso di utilizzare due articoli che avevo scritto io in precedenza (“Il Metaverso Evoluzione Della Realtà Virtuale E Di Internet.” e “Coding Nelle Scuole: Il Bambino Impara A Pensare”), aggiungendo per l'ultimo articolo un argomento difficile e particolare per un AI.
I risultati dell’interrogazione sono disponibili a questo LINK .
Per prima cosa ho dovuto istruire su quali argomenti volevo che venissero trattati in modo da avere dei risultati che assomigliasse a quelli che avevo creato io o che, almeno, utilizzassero gli stessi spunti e riferimenti nello svolgere il compito. La prima richiesta è stata: Scrivi un articolo dal titolo: Il Metaverso evoluzione della realtà virtuale e di internet, parlando della storia della realtà virtuale partendo dal Sensorama, passando per il powerglow della Mattel, parlando del SuperCockpit di Tom Zimmermann e Jaron Lainer, della webcam LG LPCU30. Fare riferimento alla letteratura fantascientifica della cultura Cyber Punk dei romanzi come “Neuromante” o “Aidoru” di William Gibson Utilizzare come fonti: Linda Jacobson, “Realtà Virtuale con il personal Computer”, Apogeo, 1994, Ron Wodaski e Donna Brown, “Realtà virtuale attualità e futuro”, Tecniche Nuove, 1995. Cita le bibliografie e le pagine delle bibliografie.
Il riferimento alla webcam LG LPCU30 era voluto in quanto, oltre ad essere stata una delle prime webcam USB, era accompagnata da una serie di software che permettevano di far interagire l’utente con lo schermo tramite piccoli giochi di realtà virtuale. Inutile dire che nessuna delle due IA l’ha specificato nell’articolo dato che solo chi ha potuto provarla è a conoscenza di questo.
Gli articoli sono abbastanza simili, semplici, concisi e si limitano ad una banale esposizione dei fatti con una conclusione altrettanto banale e scontata. Sembra quasi di leggere un tema scolastico di un ragazzino dei primi anni di liceo.
Nota importante: mentre ChatGPT si limita a citare come bibliografia solamente i libri che ho messo io come riferimento, l’Ai di Microsoft non solo cita i medesimi testi con riferimento specifico alle pagine consultate ma amplia la bibliografia con altri sei testi.
Per il secondo test ho deciso di essere più preciso ed ho chiesto esplicitamente di allargare la ricerca ad altre fonti. Ho quindi interrogato così le AI: Scrivimi un articolo sul coding nelle scuole utilizzando come spunti "le due culture" di Snow e l'articolo della professoressa Wing del 2006. Mettici delle citazioni dai libri e articoli e fai, inoltre, l'esempio di come si può utilizzare come nel film Apollo13. Utilizza anche altre fonti pertinenti e metti le note bibliografiche a piede pagina.
Anche questa volta gli articoli sono risultati simili tra di loro ed altrettanto banali con il testo si ben steso e grammaticalmente corretto ma ancora troppo lineare e semplice. Questa volta, a differenza di prima, ChatGPT ha accluso altre fonti oltre il libro di Snow e l’articolo della professoressa Wing ma, entrambi, hanno sbagliato il riferimento a come sia possibile trovare l’esempio di pensiero computazionale nel film Apollo13.
Nessuno dei due articoli, sebbene richiesto, ha messo delle citazioni tratte dal libro o dall’articolo.
L’ultimo test è stato invece volutamente pensato per verificare le conoscenze delle due Ai e l’ampiezza delle fonti a loro disposizione. Il comando impartito era: In riferimento al libro "Epigrafi romane in Transilvania" puoi farmi un'analisi sulla perdita di documenti storici a causa di incidenti come quello occorso in questo caso sul Danubio?
Questa volta i risultati comparati tra le due intelligenze sono stati completamente differenti: ChatGPT, infatti, ha esordito con: “Purtroppo, non ho informazioni specifiche sul libro Epigrafi romane in Transilvania poiché il mio addestramento ha una data di taglio alla conoscenza fino a settembre 2021, e non sono in grado di accedere a nuovi dati o libri pubblicati dopo quella data. Pertanto, non posso fornire un'analisi dettagliata su quel libro specifico.”
A questo punto è doveroso far notare al lettore che il libro (composto da 2 volumi) è stato pubblicato in solo 1000 copie nell’autunno del 2010, quindi ben dentro quello che è il periodo di addestramento dell’intelligenza artificiale.
ChatGPT, come uno studente delle scuole dell’obbligo che non ha studiato, ha provato comunque a trattare l’argomento in maniera generica.
Meglio è andata la risposta del chatbot di Skype che, non solo conosceva il testo, ma ha anche messo il riferimento bibliografico. Anche in questo caso, però, il testo dell’articolo è risultato molto semplice e banale, sebbene scorrevole nella lettura.
È possibile distinguere se un articolo è stato scritto da una AI?
Il lettore che non ha avuto modo di provare le intelligenze artificiali generative, a questo punto della lettura, si chiederà sicuramente se esiste un modo per distinguere un articolo generato da una AI da quello scritto da un essere umano.
Vi sono online alcuni tools che permettono, una volta inserito un testo, di capire quale probabilità vi sia che il testo sia stato scritto da un umano anziché un’intelligenza artificiale. Ho provato due di questi tools (https://contentatscale.ai/ e https://www.zerogpt.com/) ed anche qua i risultati sono stai divergenti.
Nel considerare il primo articolo contentscale ha verificato come scritto completamente da umani l’articolo, mentre zerogpt ha rilevato una probabilità del 58.74% che l’articolo sia stato scritto da un AI. Ho fatto la controprova utilizzando l’articolo scritto da me ed ancora, mentre il primo assicura che l’articolo sia stato scritto da umani, zerogpt il da una possibilità che sia stato scritto da intelligenza artificiale solamente del 10.82%. Risultati analoghi li ho avuti con tutti gli articoli generati dall’AI.
Ma come fanno questi software a riconoscere che un testo sia stato scritto da un AI?
Principalmente utilizzano altri modelli di intelligenze artificiali. ChatGPT, così come i suoi simili artificiali, imparano a scrivere in base a dei pattern o schemi: un po’ come gli umani creano un loro “stile” le Intelligenze artificiali creano un modo di scrivere facendo la media degli stili che hanno imparato. Così, controllando la ricorrenza di determinate parole, del modo di scrivere, come risulta la costruzione della frase e la prevedibilità, piuttosto che imprevedibilità, di una parola in un’espressione, i tools che verificano un testo, redigono la probabilità che ciò che hanno letto sia umano o artificiale.
Ma non sempre questi tools funzionano (io suggerisco di utilizzare https://www.zerogpt.com/ se si vuole provare) e quindi…
La prima cosa che consiglio è di imparare (o reimparare) a leggere. Le AI hanno imparato principalmente da ciò che hanno avuto a disposizione online ed hanno quindi uno stile conciso, semplice e veloce, con frasi corte e semplici. Chi è abitato a leggere si accorge subito se un libro, piuttosto che un racconto o un articolo, sono stati scritti da un essere umano o meno notando la complessità della scrittura: tendenzialmente, un testo scritto da un intelligenza artificiale, è davvero banale, contiene numerose ripetizioni e non si avvale dell’intero vocabolario della lingua utilizzata, specie se non si tratta dell’inglese. Per quanto possa risultare ben steso, il documento è la maggior parte delle volte troppo lineare e non sostituisce certi termini con sinonimi più consoni al contesto, realizzando un testo tutt’altro che ricco e accattivante.
Se avete una padronanza avanzata dell’italiano e/o siete lettori assidui riconoscere un testo artificiale vi risulterà facile una volta capiti i meccanismi.
Considerazioni
Le Ai sono il futuro, è inutile negarlo!
Esistono ad oggi però tanti problemi aperti, soprattutto morali.
La prima considerazione che mi viene da fare è quella di quelle aziende che si affidano a professionisti o ad altre aziende specializzate per scrivere banner pubblicitari o articoli promozionali che, convinte di pagare professionisti laureati che hanno studiato, con anni di esperienza e conoscono il loro mestiere, si ritrovano a pagare in realtà un AI spacciata per essere umano.
La seconda considerazione che mi viene è più culturale: utilizzando le AI per scrivere testi rischiamo di disimparare l’arte della creatività e disabituarci a leggere libri scritti magari in linguaggi difficili, con periodi lunghi e, quindi, a quel lavoro mentale che ha caratterizzato lo sviluppo della nostra cultura fin dalla nascita della scrittura.
La Commissione Europea, il 23 giugno del 2023 ha licenziato il AI ACT, un testo molto complesso, destinato a gestire l’utilizzo delle AI all’interno dell’Unione in base ad un sistema di valutazione dei rischi.
Tralasciando i punti che non riguardano questo argomento mi soffermerei invece su l'utilizzo dei testi generati da intelligenze artificiali: la proposta della Commissione Europea prevede che questi siano considerati sistemi di IA a rischio limitato, in quanto possono influenzare il comportamento o le scelte delle persone o creare aspettative irrealistiche. Pertanto, i fornitori e gli utenti di questi sistemi dovrebbero informare chiaramente le persone quando sono esposte a contenuti generati da IA e indicare la fonte e la natura dei contenuti. Inoltre, i fornitori e gli utenti dovrebbero garantire che i contenuti generati da IA non siano ingannevoli, discriminatori o lesivi della dignità umana.
Fermare l’AI è impossibile ed ingiusto. Utilizzare strumenti come ChatGPT per migliorare o aiutare il lavoro è doveroso. Utilizzarli al posto della creatività umana, invece, è immorale e ingannevole oltre che un insulto a più di 2000 anni di ingegno e creatività.
La soluzione è riappropriarci dei libri. Leggere, leggere e leggere ancora. Classici, moderni, contemporanei e saggi, in modo da poter imparare a distinguere un testo di qualità da uno banale e scialbo, indipendentemente da chi ne sia l'autore (Ai o Umano) e poter risalire la china di disinformazione e bassa cultura che negli ultimi 10-15 anni ha iniziato ad avanzare.
La mente umana è capace di collegare diverse discipline, citare una frase al momento giusto e a dovere, le AI non sono in grado di farlo: non vedono film, non sentono la musica, non percepiscono la poesia.
Se scrivono un testo non sanno come collegare un film, una foto, un evento ad un altro argomento che non sembra aver connessione. Se non lo avessi specificato direttamente nella richiesta, parlando di Realtà virtuale e di Metaverso le Ai non avrebbero mai collegato di loro iniziativa i romanzi di Gibson o film come “Il 13° piano” (in effetti non l’hanno fatto con quest’ultimo) pur essendo pertinenti con l’argomento.
Creare è un processo difficile, che richiede energie ed impegno, conoscenza e studio. Non si può ridurre tutto ad un freddo algoritmo o il risultato sarà una creazione scialba, banale, e piena di luoghi comuni, con un linguaggio semplice, fatto di frasi corte e povero da un punto di vista lessicale.
Come sempre non lasciamoci ingannare dalla tecnologia. Siamo noi a doverla utilizzare nel modo corretto e non abusarne per pigrizia.
Riferimenti:
https://eur-lex.europa.eu/~/?uri=CELEX:52021PC0206
https://www.europarl~/EPRS_BRI%282021%29698792
https://www.zerogpt.com/
https://www.zerogpt.com/
https://contentatscale.ai/
https://chat.openai.com/
https://www.bing.com/?/ai
https://theunedited.com/nerdering/aiarticoli.html
https://www.dcuci.univr.it/?ent=progetto&id=1927
Dopo che il Garante della Privacy ha aperto un’istruttoria su ChatGPT, di fatto bloccandola temporaneamente nel nostro paese, quello che prima era un tool di AI1 riservato a pochi appassionati è diventato un argomento di “cultura generale” dove chiunque può esprimere la propria opinione.
A dare adito alle preoccupazioni riguardo questa tecnologia si sono inseriti nel dibattito anche persone di autorevolezza come l'ex presidente dell'Agenzia spaziale italiana Roberto Battiston o il cofondatore di Neuralink e OpenAI Elon Musk (nonché direttore tecnico di SpaceX, amministratore delegato di Tesla, ecc).
Ma sono davvero fondate queste preoccupazioni?
Vediamo di fare un po’ di luce sulla situazione e soprattutto se solo ChatCPT è pericolosa o anche le altre AI.
Cos’è un’intelligenza artificiale?
Già nel 1950 sulla rivista Mind il grande matematico Alan Turing nell'articolo “Computing machinery and intelligence” ideò un test per determinare se una macchina sia in grado di esibire un comportamento intelligente (vedi articolo “È Stato Superato Il Test Di Turing?” su questo stesso sito). Questo fu il primo tentativo per avvicinarsi al concetto di intelligenza artificiale. In realtà il concetto di AI al giorno d’oggi si è evoluto in una tecnologia che consente di simulare i processi dell’intelligenza umana tramite programmi in grado di pensare e agire come gli esseri umani. Per ottenere tutto questo sono necessari principalmente 2 fattori: grandi capacità d calcolo e un enorme molte di dati sui quali gli algoritmi possano crescere.
Se per il primo requisito gli ostacoli sono stati facilmente superabili per il secondo fino all’avvento di internet e dei social network (ma soprattutto fino alla loro massificazione) le cose erano più complicate in quanto si necessitava di raccogliere dati da varie fonti che spesso non comunicavano tra loro e inserirli negli algoritmi; ma, come appena scritto, grazie a questi due strumenti le aziende che sviluppano Intelligenza Artificiale hanno potuto accedere quantità enormi di informazioni eterogenee che hanno dato lo slancio alla creazione una nuova tecnologia.
Già negli ultimi 10 anni si è assistito ad un lento sviluppo delle AI anche se non ci siamo mai soffermati a rifletterci: quando usiamo le auto con la guida autonoma o semi-autonoma usiamo programmi di AI, così come quando interagiamo con un Chatbot2 e o utilizziamo software per riconoscere piante o persone tramite la telecamera del nostro smartphone o tablet oppure semplicemente utilizziamo un assistente vocale quali Siri o Cortana.
Cos’è ChatGPT?
Ma cosa rende questa AI diversa delle altre e perché?
Innanzitutto chiariamo che lo scopo di ChatGPT è quello di rendere l’interazione con i sistemi di intelligenza artificiale più naturale e intuitiva, infatti GPT sta per Generative Pretrained Transformer (traducibile grossolanamente in “trasformatore pre-istruito e generatore di conversazioni”), ovvero un modello di linguaggio che utilizza il Deep Learning3 per produrre testi simili in tutto e per tutto a quelli che scriverebbe un essere umano: quando un utente inserisce un messaggio, Chat GPT elabora l'input e genera una risposta pertinente e coerente all’interno della conversazione.
Ma se quello che facesse questa AI fosse solo rispondere alle domande degli utenti in maniera simile a quella di un essere umano saremmo davanti a niente più di un chatbot evoluto. In realtà quello che ChatGPT fa e sta imparando a fare è molto più articolato: permette di scrivere testi più o meno lunghi (temi, tesi, libricini, ecc.), permette di scrivere programmi senza quasi aver alcuna conoscenza di linguaggi di programmazione piuttosto che una canzone, una poesia o anche una sceneggiatura cinematografica inoltre è anche in grado di dare consigli su viaggi o di qualsiasi altra cosa e, come un vero essere umano, a volte può anche sbagliare nelle risposte o nei compiti assegnati.
Per usare ChatGPT è sufficiente collegarsi a OpenAi.com e poi attivare gratuitamente un account. Sfortunatamente da qualche settimana questo non è più possibile per noi utenti italiani senza una VPN.
Non esiste solo ChatGPT?
Sebbene famosa questa AI non è la sola presente sul mercato. Anche altre aziende oltre OpenAi stanno sviluppando (o anno già sviluppato) sistemi analoghi.
BingAi, sviluppato da Miscrosoft (che è stato uno dei finanziatori più generosi di OpenAi) è stato integrato nell’omonimo motore di ricerca della società di Redmond che si pone come obbiettivo di dare risposte, ma non solo: se ad esempio ci colleghiamo alla sezione “create” (https://www.bing.com/create) possiamo far creare a BingAi un immaigne partendo da una nostra descrizione (solo in inglese per ora). BingAi utilizza lo stesso motore di GPT.
Google Bard è, invece, l’alternativa proposta da BigG. Questo strumento di AI per il momento è ancora in fase di sviluppo nelle prime fasi non ha entusiasmato più di tanto e i risultati delle sue integrazioni sono risultati inferiori come qualità a quelle presentata dai concorrenti. Il CEO di Google, Sundar Picha, non sembra particolarmente preoccupato di questo e afferma che Brad passerà presto dal modello LaMDA (Language Model for Dialogue Applications) a PaLM (Pathways Language Model) in quanto il modello attuale è “addestrato” da solamente 137 miliardi di parametri, contro i 540 miliardi di parametri di PaLM.
Quando Bard sarà attivo in maniera completa cambierà soprattutto il modo nel quale vengono presentate le ricerche da Google e, probabilmente, il motore di ricerca più utilizzato al mondo diventerà più attento nella qualità delle pagine indicizzate e proposte; o almeno questo è l’intento di Google.
IBM Watson è l’intelligenza artificiale sviluppata, appunto da IBM dal 2010 che nel 2013 ha avuto la prima applicazione commerciale ovvero la gestione delle decisioni nel trattamento del cancro ai polmoni al Memorial Sloan-Kettering Cancer Center. A differenza dei suoi antagonisti sopra citati Watson si propone ad un pubblico business: il sistema è in grado di analizzare ed interpretare i dati, testi non strutturati, immagini, dati audio e video e, grazie all'intelligenza artificiale, il software riconosce la personalità, il tono e l'umore dell'utente.
Perché fa paura l’evoluzione delle AI?
Le intelligenze artificiali, da come abbiamo visto fino ad ora, sembrano essere una panacea per l’aiuto nel lavoro di tutti i giorni, ma presentano anche dei lati oscuri che non sono però gli scenari apocalittici rappresentati da tanti film di fantascienza quali Matrix, Terminator, eccetera.
Così come sono in grado di creare immagini dal nulla con semplicemente delle spiegazioni, altrettanto possono creare dei falsi video o foto per generare disinformazione. Già nel 2019 Samsung ha sviluppato un sistema, basato sull'intelligenza artificiale, capace di creare finti video da una o due fotografie e, negli ultimi mesi del 2022 , sempre più video falsi realizzati con lo scopo di mostrare le capacità delle AI nel generare contenuti, sono stati messi in rete.
Certo, si obbietterà, che la produzione di video "fake" non è nuova, ma quello che cambia adesso è che, se fino a ora erano necessarie grandi quantità di dati e competenza e un’ occhio allenato poteva notare la differenza tra reale e no adesso, con le AI si possono costruire movimenti del viso e della bocca che non sono mai esistiti e che sembrano reali.
Quindi se la manipolazione delle immagini (o dei suoni) tramite AI può dare vita a meme innocui, oppure semplificare la vita di animatori e sviluppatori di videogiochi bisogna prestare attenzione ad un possibile utilizzo illegale o atto a disinformare l’opinione pubblica o discreditare chiunque.
Pensate: cosa fareste se un giorno vi trovaste a vedere un video su Facebook di voi che state facendo una rapina in banca e questo video sarebbe tanto dettagliato da sembrare reale?
Ma non si tratta solo della capacità di creare fave video. Le IA come ChatGPT possono anche creare commenti e di auto-evolversi.
Queste capacità di auto-evolversi sono state uno dei motivi che hanno portato Musk con altri mille esperti a chiedere una moratoria di sei mesi all'addestramento delle Intelligenze artificiali (non solo ChatGPT) attraverso una lettera aperta (sotto forma di petizione) indirizzata ai governi e, soprattutto, alle aziende che in questi hanno aumentato la ricerca allo sviluppo di queste tecnologie. In questa petizione, pubblicata sul sito Futureoflife.org, imprenditori e accademici chiedono una moratoria sull'uso delle AI fino alla creazione di sistemi di sicurezza. Il rischio più grande non è che le intelligenze artificiali possano scatenare una guerra contro l’umanità ma che si mettano a “fare cose” senza un motivo a noi apparente o che “imparino cose sbagliate”.
In Italia il Garante per la Privacy ha bloccato momentaneamente ChatGPT in attesa sul chiarimento su come vengono trattati i dati personali degli utenti. Una motivazione forse banale ma che ha portato ad un blocco (unico per adesso in Europa) della tecnologia di OpenAi. In particolare il Garante rileva “la mancanza di una informativa (come quelle presenti nei normali siti web) agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI”. Inoltre, sottolinea sempre il Garante c’è “l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma”, che si può tradurre come: “Non c’è un motivo per utilizzare i dati personali delle persone per insegnare al vostro software!”.
Mentre in Italia si attua un blocco momentaneo a CathGPT in attesa di delucidazioni sull’uso dei dati personali, in Europa molti paese (come Germani, Francia) chiedono delucidazioni all’Italia per questa sua decisione e nella Commissione Europea si discute se e come regolarizzare le Intelligenze Artificiali.
Quale futuro?
Di sicuro l’evoluzione dell’intelligenza artificiale rappresenta per l’informatica quello che l’energia nucleare ha rappresentato nel mondo della fisica e, proprio come l’energia nucleare, può rappresentare sia un’utilità che un mezzo di distruzione. Intanto si stanno delineando nuove opportunità nel mondo del lavoro per chi sa utilizzare e programmare le AI e nuove professioni stanno nascendo come ad esempio il prompt expert4 che negli Stati Uniti può arrivare a guadagnare da 70.000 a 140.000 dollari all’anno.
Da tutto questo l’Italia rischia, per adesso, di rimanere esclusa.
Se la decisione del Garante sia giusta o meno non lo sappiamo e lo sapremo in futuro, ma per adesso, se vogliamo utilizzare ChatGPT non ci resta che utilizzare una VPN.
1Ai è l’acronimo di Artificial Intelliggence
2 Un chatbot è un software che simula ed elabora le conversazioni umane (scritte o parlate), consentendo agli utenti di interagire con i dispositivi digitali come se stessero comunicando con una persona reale
3 Il Deep Learning, la cui traduzione letterale significa apprendimento profondo, è una sottocategoria del Machine Learning (che letteralmente viene tradotto come apprendimento automatico) e indica quella branca dell’intelligenza artificiale che fa riferimento agli algoritmi ispirati alla struttura e alla funzione del cervello, chiamati reti neurali artificiali. Da un punto di vista scientifico, potremmo dire che il Deep learning è l’apprendimento da parte delle “macchine” attraverso dati appresi grazie all’utilizzo di algoritmi (prevalentemente di calcolo statistico).
4 Il prompt è la descrizione, ossia l’input, che diamo all’intelligenza artificiale generativa quando le chiediamo qualcosa. Il prompt Expert una figura professionale che ha il compito di fornire all’intelligenza artificiale descrizioni sempre più precise per fare in modo che le risposte che si ottengono lo siano altrettanto.
BIBLIOGRAFIA
Improving Language Understanding by Generative Pre-Training, The university of British Columbia, https://www.cs.ubc.ca/~amuham01/LING530/papers/radford2018improving.pdf
OpenAI Documentation,
https://platform.openai.com/docs/introduction
SHERPA project
https://www.project-sherpa.eu/european-commissions-proposed-regulation-on-artificial-intelligence-is-the-draft-regulation-aligned-with-the-sherpa-recommendations/
(Ultima consultazione siti web aprile 2023)
Tutti sappiamo, quasi sempre per sentito dire, che la rete internet è nata come progetto militare per garantire la comunicazione sempre e comunque (anche in caso di olocausto nucleare) tra i vari centri di comando. Questa consapevolezza è talmente radicata che siamo convinti che l’infrastruttura internet sia sempre disponibile (escluso i guasti che possono capitare sulla linea ma questo è un altro discorso).
Come stanno realmente le cose?
Internet non è il web.
Per prima cosa dobbiamo chiarire la differenza che c’è tra la rete internet ed il “web”.
La rete internet è un infrastruttura dove viaggiano pacchetti di dati tra vari nodi di computer che si scambiano informazioni tramite delle regole che si chiamano protocolli. I pacchetti dati che vengono scambiati dai vari computer tramite dei “nodi” vengono interpretati da vari programmi (whatsapp, programmi di videoconferenza, programmi FTP, newsgroup, posta elettronica, ecc.) presenti sui singoli dispositivi che provvedono ad interpretarli ed elaborarli. Internet è, insomma, una specie di ferrovia che offre il trasporto di informazioni che attraverso delle stazioni (i server) distribuisce queste informazioni alle singole case presenti in una “citta”, ovvero i singoli computer collegati.
Il web è, invece, solamente uno dei servizi internet che permette il trasferimento e la visualizzazione dei dati, sotto forma di ipertesto. La prima pagina web è stata realizzata da Tim Berners-Lee nel 1991 presso il CERN. Il web ha permesso di trasformare quello che viaggiava su internet da una serie di informazioni statiche ad un insieme di documenti correlati e facilmente consultabili.
Come nasce Internet.
In piena guerra fredda, nel 1958 la difesa degli Usa fondò ARPA, acronimo di Advanced Research Projects Agency e che oggi si chiama DARPA (D sta per Defence) con lo scopo di trovare soluzioni tecnologiche innovative ad un certo numero di problemi, principalmente militari. Tra i vari problemi che ARPA si trovò ad affrontare vi era quello creare un sistema di telecomunicazioni sicuro, pratico e robusto, in grado di garantire lo scambi di informazione tra i vari comandi e sistemi di risposta in caso di attacco nucleare sempre e comunque.
Lo scambio di dati tra i vari computer, fino ad allora, avveniva tramite un collegamento diretto tra i due, solitamente tramite linea telefonica. Questo tipo di scambio dati, oltre che essere poco sicuro, presentava delle debolezze intrinseche: la velocità era limitata e condizionata dal computer più lento e la connessione era limitata a due utenti che venivano collegati direttamente. Ad aumentare la criticità di questo modo di scambiare informazioni, inoltre, vi era il fatto che tutti i dati passavano da un nodo centrale, incaricato di questa operazione di switching, creando un punto critico in caso di guasto o di attacco.
La soluzione fu trovata “imbustando” i dati in una serie di pacchetti che, come in una busta postale, contengono l’indirizzo del mittente, del destinatario e l’informazione che si vuole trasmettere. In questo modo era possibile per più utenti utilizzare una stessa linea e, in caso di guasto o inoperatività di un nodo, le informazioni potevano essere deviate su di un’altra strada, dato che si sapeva “l’indirizzo” del destinatario. L’unico problema che esisteva (ma all’epoca non era considerato un problema visto il numero esiguo di computer presenti) era che bisognava, appunto, conoscere l’indirizzo del destinatario.
Il progetto prese ufficialmente vita nel 1958 quando Steve Crocker, Steve Carr e Jeff Rulifson, in un documento del 7 aprile presentarono l’idea di una rete che prese il nome di ARPANET. Inizialmente furono solo quattro i computer collegati ma in breve tempo il loro numero aumentò includendo non solo enti della difesa USA ma anche università e centri di ricerca.
Per facilitare lo scambio di dati tra computer differenti venne implementato un protocollo apposito il TCP/IP che è tutt’ora utilizzato. A seguire vennero inventate nel 1971 le e-mail, mentre l’anno seguente vide la nascita di un metodo per controllare i computer in remoto che prese il nome di telnet e per finire un protocollo per il trasferimento dei file che si chiama FTP. Tutti questi protocolli che sono tutt’ora esistenti e sono una parte fondamentale di quello che chiamiamo “Internet”.
Anche se negli anni i protocolli si sono evoluti, ne sono nati di nuovi e altri si sono modificati il principio di funzionamento rimane lo stesso degli anni ’60 e oggi sono milioni i computer e i dispositivi interconnessi in tutto il mondo.
C’è pericolo per l’infrastruttura mondiale?
Attualmente abbiamo un mondo sempre più interconnesso. Quando consultiamo un sito internet, mandiamo un messaggio tramite whatsapp o messenger, pubblichiamo una nostra foto su Facebook piuttosto che una storia su Instagram o facciamo un bonifico bancario utilizziamo uno dei tanti servizi che la rete internet ci mette a disposizione.
Spesso i server che utiliziamo sono situati in altri continenti o altre nazioni: le webfarm (luoghi dove sono collocati una serie di Server a temperatura controllata e in sicurezza) che contengono i siti internet non sempre sono in Italia o in Europa anche se il dominio che consultiamo è di tipo .it o .eu ed appartiene ad una società italiana.
A collegare questi server a casa nostra provvede una fitta rete di cavi ottici sottomarini (la mappa è consultabile sul sito www.submarinecablemap.com) che trasportano il 97% del traffico internet mondiale. Sicuramente, a questo punto della lettura, viene da chiedersi perché si preferisca utilizzare i cavi marini anziché i satelliti, come nel caso della costellazione Starlink di Eolon Musk?
Il primo motivo è il costo della tecnologia della fibra ottica che è molto più vantaggiosa della messa in orbita e del mantenimento di una rete di satelliti.
Dobbiamo poi considerare la velocità: satelliti per la trasmissione dati sono, per la maggior parte, situati in orbite geostazionarie il che vuol dire che orbitano su un punto fisso sopra la terra (come i satelliti GPS) ad un’altezza di circa 36.000 km. Ad una tale distanza un bit, che viaggia alla velocità della luce, per percorrere una simile distanza impiega ¼ di secondo e questo tempo di latenza nella comunicazione può, in certi casi, diventare critico.
Dobbiamo, infine, considerare che se tutte le comunicazioni della rete internet dovessero passare tramite satelliti probabilmente questi ultimi avrebbero difficoltà a gestire una mole di traffico eccessiva: un conto è dover gestire 10.000/30.000 utenti collegati contemporaneamente un altro doverne gestire 1.000.000.
Queste autostrade digitali prendono il nome di dorsali, e una delle più importanti passa al largo delle coste irlandesi dove transitano oltre 10 trilioni di dollari al giorno di transazioni finanziarie.
Non stupisce che, dopo il sabotaggio del gasdotto Nord Stream, stia nascendo la preoccupazione di un possibile attentato ai cavi sottomarini da parte dei Governi Europei e della Nato: gli alti funzionari della Marina degli Stati Uniti hanno avvertito per molti anni delle conseguenze catastrofiche di un possibile attacco da parte delle navi russe su cavi Internet.
In realtà, a parte un eventuale aumentare della tensione geopolitica, un reale pericolo non esiste, o meglio, le conseguenze non sarebbero così gravi come certi giornali annunciano: già adesso, ogni giorno, si verificano guasti lungo i cavi ma gli utenti non se ne accorgono.
Abbiamo visto all’inizio che la struttura internet è nata con lo scopo di evitare che un conflitto impedisca la possibilità di scambiare informazioni tra i vari posti di comando. Se un cavo viene tagliato, o anche la maggior parte dei cavi di una dorsale, semplicemente i pacchetti dati verrebbero reindirizzati tramite un’altra strada per raggiungere il destinatario a scapito, ovviamente, della velocità di interscambio dei dati. E se anche un eventuale stato belligerante riuscisse a tagliare tutti i cavi Atlantici si potrebbe sempre reindirizzare il traffico sulla dorsale dell’Oceano Pacifico o via satellite, anche se in quest’ultimo caso bisognerebbe dare la precedenza ai servizi di primaria importanza e si avrebbe un rallentamento generale.
In questo periodo di guerra i propagandisti russi (come Viktor Murakhovsky) hanno dichiarato che la Russia potrebbe danneggiare seriamente le comunicazioni in Europa e ciò avverrebbe tramite l’utilizzo di sottomarini speciali come il Belgorod ma, come abbiamo visto, tutto questo rimane accantonato nella pura propaganda di guerra.
Anche se da un punto di vista puramente strategico il recente conflitto scoppiato in Ucraina sembra riportare indietro la storia militare di quasi 80 anni dove è la fanteria ad avere il peso maggiore, abbiamo visto in questo conflitto per la prima volta l’utilizzo della “Cyberwar” come arma; come un bombardamento può mettere fuori uso le infrastrutture di un paese allo stesso modo un cyber-attacco può paralizzare aeroporti, treni e comunicazioni.
Il 24 febbraio l’aggressione della Russia all’Ucraina era stato anticipato da un attacco tramite un malware che aveva cancellato i computer di una banca ucraina e di un'agenzia governativa. Ma gli attacchi informatici alle strutture amministrative ed economiche ucraine erano iniziati già prima dell'invasione militare: il governo di Zelensky aveva segnalato un cyber-attacco il 14 gennaio che aveva preso di mira i siti web del ministero degli esteri del paese, il gabinetto dei ministri e i consigli della difesa. Un mese dopo i responsabili della cybersecurity ucraine hanno segnalato un attacco DDoS1 contro due delle maggiori banche del paese, PrivatBank e Oschadbank.
Affianco agli attacchi “ufficiali” portati avanti da entrambi i contendenti (anche l’Ucraina tramite una trentina di gruppi di Hacker porta avanti una sua guerra informatica alla Russia) si sono schierati gruppi di hacktivisti2 come Anonymous che, il 26 febbraio ha dichiarato di essere sceso in guerra contro la Russia, creano danni e disservizi come l’Hackeraggio della TV russa con la trasmissione di immagini della guerra o il furto di 35 mila file della banca centrale russa contenente anche contratti segreti; un'azione che ha bloccato il traffico ferroviario in Bielorussia, nazione che appoggia esplicitamente la Russia sia logisticamente che militarmente, è stata rivendicata dai un gruppo hacker.
Affianco a questi attacchi che creano disservizi gli attacchi informatici hanno anche una funzione più diretta nel conflitto: a quanto si è appreso le truppe russe in territorio ucraino non hanno sistemi di comunicazione radio criptati e sono state divulgate le frequenze e le istruzioni necessarie a intercettare gli ordini provenienti dalla catena di comando e le comunicazioni tra le truppe sul campo.
Ma in Italia siamo pronti ad affrontare una guerra informatica?
Il 23 marzo un attacco ransomware ha colpito Trenitalia bloccando la vendita dei biglietti nelle stazioni, nelle biglietterie e self service. Anche se l'attacco hacker sembra essere opera della gang di hacker russo-bulgaro Hive non si sa ancora se sia collegato alla guerra Russo-Ucraina, ma ci mostra la fragilità delle nostre strutture.
Questa fragilità era già stata notata nel luglio del 2021 quando il CED e i servizi informatici della Regione Lazio hanno subito un attacco ransomware3 anche se in quel caso non si è trattato di un attacco informatico mirato (a differenza di quanto ha più volte dichiarato il presidente della Regione Lazio Zingaretti) ma di un ransomware che è entrato nel sistema a causa della “svista” di un dipendente della regione in Smart working.
A tal riguardo risulta interessante e preoccupante al tempo stesso il rapporto Cert-Agid sulla sicurezza dei siti pubblici del dicembre 2020 che dice quanto i nostri dati affidati alle PA locali siano a rischio. Da questa ricerca risulta che 445 (2%) portali istituzionali risultano senza HTTPS abilitato; 13.297 (67%) di questi portali hanno gravi problemi di sicurezza; 4.510 (22%) hanno un canale HTTPS mal configurato; mentre solo 1.766 (9%) utilizzano un canale HTTPS sicuro. Quasi il 50% dei siti monitorati anziché utilizzare soluzioni ad hoc si affidano a dei CSM che non sempre sono aggiornati all’ultima versione.
Se affianco a questi problemi strutturali mettiamo anche il fatto che molti dei dipendenti pubblici non hanno alcuna conoscenza sulla sicurezza informatica e si comportano con superficialità come nel caso sopra citato dell’attacco ramsomware alla Regione Lazio il quadro generale che si presenta è quello di un possibile colabrodo.
L’ Agenzia per l'Italia digitale (AGID) ha emanato una serie di misure minime di sicurezza per le pubbliche amministrazioni che andrebbero attuate. A seconda della complessità del sistema informativo a cui si riferiscono e della realtà organizzativa dell’Amministrazione, le misure minime possono essere implementate in modo graduale seguendo tre livelli di attuazione: minimo, standard, avanzato.
Il livello minimo è quello al quale ogni Pubblica Amministrazione, indipendentemente dalla sua natura e dimensione, deve necessariamente essere o rendersi conforme; quello standard è il livello che ogni amministrazione deve considerare come base di riferimento in termini di sicurezza e rappresenta la maggior parte delle realtà della PA italiana; infine il livello avanzato deve essere adottato dalle organizzazioni maggiormente esposte a rischi in base alla criticità delle informazioni trattate o dei servizi erogati, ma deve anche essere visto come l’obiettivo di miglioramento da parte di tutte le altre organizzazioni. È importante sottolineare che sebbene queste linee guida risalgono al 2017 il rapporto Cert-Agid sulla sicurezza dei siti pubblici è del 2020 e mostra quindi quanto sia ancora molto il lavoro da fare.
Per ultimo bisogna inserire nelle nostre considerazioni sulla sicurezza informatica italiana anche il recente dibattito sull’aumento delle spese militari in Italia: da quanto riportato da Adolfo Urso, presidente del Copasir, "Più spese per la difesa servono anche alla cybersecurity".
In diverse Relazioni il Comitato parlamentare per la sicurezza della Repubblica ha documentato al Parlamento come la Russia fosse diventata un Paese molto attrezzato nella sfera cibernetica e quanto fosse importante la difesa cyber, indicando la necessità di estendere il “golden power”4 al sistema delle telecomunicazioni e la necessità di realizzare un perimetro nazionale sulla sicurezza cibernetica. Questi due obiettivi sono stati raggiunti mentre a giugno 2021 è stata realizzata l’Agenzia nazionale cibernetica (un risultato purtroppo arrivato con dieci anni di ritardo rispetto a Paesi come la Francia e la Germania).
Una parte dell’aumento delle spese previste per la difesa andrebbero quindi a finanziare l’Agenzia nazionale cibernetica dato che, come abbiamo visto, la Cyberwar è pericolosa come una guerra normale.
Se nelle aziende private il problema della sicurezza informatica è sentita da tempo, tanto che gli investimenti sono sempre più sostanziosi e riguardano anche la formazione del personale, lo stesso non vale per la pubblica amministrazione dove spesso mancano le competenze e la reale percezione del pericolo che rappresenta. Affianco a questo stiamo assistendo a prese di posizione ideologiche che impediscono l’attuazione di un vero piano di sicurezza a livello nazionale.
Anche se non si potrà mai avere una sicurezza informatica al 100% ma cercare di limitare i danni è diventato oggi non più un opzione ma un obbligo.
1 Un attacco DDoS (Distributed Denial of Service) è un'arma di sicurezza informatica mirata a interrompere le operazioni di servizio o ad estorcere denaro da organizzazioni mirate. Gli attacchi possono essere guidati da politica, religione, competizione o profitto. Un attacco DDoS è una versione distribuita di un attacco Denial of Service (DoS) con lo scopo di interrompere le operazioni aziendali. Questo attacco utilizza un grande volume di traffico per sovraccaricare le normali operazioni di interconnessione di servizio, server o rete, rendendole non disponibili. Gli attacchi DoS interrompono un servizio mentre gli attacchi distribuiti (DDoS) sono eseguiti su scala molto più ampia, con la conseguente chiusura di intere infrastrutture e servizi scalabili (servizi Cloud).
2 L’hacktivismo è una forma di attivismo digitale non violento, il cui scopo principale non è legato a interessi economici personali. Gli Hacktivisti con le loro campagne mirano a obiettivi politici, sociali o anche religiosi in linea con la causa propugnata da ciascun gruppo di appartenenza.
3 I ransomware sono virus informatici che rendono inaccessibili i file dei computer infettati e chiedono il pagamento di un riscatto per ripristinarli.
4 Il golden power è uno strumento normativo, previsto in alcuni ordinamenti giuridici, che permette al Governo di un Paese sovrano di bloccare o apporre particolari condizioni a specifiche operazioni finanziarie, che ricadano nell'interesse nazionale
BIBLIOGRAFIA:
https://cert-agid.gov.it/news/monitoraggio-sul-corretto-utilizzo-del-protocollo-https-e-dei-livelli-di-aggiornamento-delle-versioni-dei-cms-nei-portali-istituzionali-della-pa/
https://sog.luiss.it/sites/sog.luiss.it/files/Policy_paper_print.pdf
https://www.agid.gov.it/it/sicurezza/misure-minime-sicurezza-ict
https://www.gazzettaufficiale.it/eli/id/2017/05/05/17A03060/sg
Siamo alle soglie del web 3.0 che non è solo il metaverso, che del futuro web rappresenta una visione dall’impatto molto forte, ma il web che verrà, seppur ancora molto nebuloso oggi, sarà molto di più.
Fino al 1993 internet era utilizzato quasi esclusivamente da scienziati, università, centri di ricerca e militari, l’utilizzo e la consultazione era fatto quasi esclusivamente tramite riga di comando. Con “l’apertura” della rete a tutti quanti inizia quello che verrà definito web 1.0.
All’inizio il web non era altro che un’evoluzione delle vecchie BBS, dove gli utenti si collegavano a delle pagine, ospitate da server ed usufruivano dei contenuti in maniera passiva. Chi si collegava ad un sito poteva solo navigare, sfogliare un catalogo virtuale di prodotti, approfondire delle conoscenze o fare acquisti online.
Le possibilità di interazione con i siti è molto limitata e, solitamente, avveniva tramite e-mail, fax, telefono e pochissimi siti permettevano di uplodare contenuti personali tramite Common Gateway Interface1 sviluppati in C/C++ o Pearl che spesso erano complicate da sviluppare e costose.
Il flusso di comunicazione era quindi unidirezionale da parte del sito web aziendale o personale che dava informazioni a utenti passivi.
Da un punto di vista economico il modello che presenta il web 1.0 non discosta molto dai media comuni quali la televisione o i giornali: su una pagina o un sito internet vengono pubblicati banner pubblicitari a pagamento o tramite il metodo PPC (Pay Per Click).
Il web 2.0 si evolve dando l’opportunità agli utenti di interagire con i siti e diventando loro stessi creatori di contenuti. All’inizio sono solo piccoli blog personali e qualche social network come Myspace o Twitter, in particolare, è quest’ultimo che dà la prima innovazione permettendo ai suoi iscritti di pubblicare brevi messaggi, anche tramite SMS e la possibilità di “ri-twittare” questi ultimi quindi condividerli; un anno dopo la sua nascita, nel 2007, nascono con twitter gli hashtag che permettono di aggregare le notizie e così dalle bombe a Boston del 2013, alla guerra in Siria, chi è testimone di eventi importanti ha la possibilità di informare il resto del mondo.
Allo stesso modo i nascono i social network che permettono di creare reti di utenti che scambiano idee ed opinioni (naturale evoluzione dei newsgroup e dei forum del web 1.0) e creano la nascita di nuove aziende e giganti del web che raccolgono sui loro server i dati degli utenti oltre che i contenuti che vengono pubblicati. Siti come Youtube, Facebook, Instagram, “vivono” grazie ai contenuti che gli iscritti generano e non forniscono nulla all’infuori dell’infrastruttura necessaria molto semplice da utilizzare e molta pubblicità.
Ed ecco la prima grande differenza tra il web 1.0 ed il 2.0: le centralità. Esistono poche aziende che offrono servizi che le persone utilizzano e i dati ed i contenuti che gli utenti producono sono conservati sui server di poche aziende. Prima chi pubblicava qualcosa online, sia che fosse su un sito personale o su un blog era il proprietario dello spazio che utilizzava, in quanto veniva affittato da un provider e i dati personali così come i contenuti che vi erano pubblicati rimanevano di sua proprietà mentre con l’utilizzo di social o di siti che permettono di condividere idee, foto e quant’altro possibile l’utente “cede” i propri dati personali così come i contenuti che genera ad un’azienda terza che ne può usufruire liberamente.
Con il web 2.0 viene generato un nuovo tipo di interconnessione tra utenti e servizi che genera una convergenza digitale dove poche interfacce tendono ad aggregare più servizi: tramite l’account social possiamo iscriverci a servizi di streaming o di mail, sui social possiamo leggere le ultime notizie di un giornale senza dover andare sul sito del medesimo, tramite i social possiamo mandare un messaggio ad un amico o più amici ed organizzare uscite o riunioni. Tutti questi servizi sono accentrati in un unico posto, sia fisico che virtuale, di proprietà di poche Holding internazionali.
Il modello economico del web 2.0 è anch’esso un’evoluzione del precedente, non solamente si basa sulla pubblicità che viene presentata agli utenti, ma anche tramite la condivisione dei dati personali che questi memorizzano sui server dei quali sono fruitori. Ed ecco perché c’è la necessità di centralizzare i dati raccolti.
Questo non vuol dire che l’attuale versione del web sia completamente negativa. Basti pensare cosa sarebbe successo all’economia mondiale durante la pandemia di Covid-19 se non vi fosse stata la possibilità di fare Smart Working elastico e flessibile, reso possibile proprio grazie alle innovazioni tecniche scaturite a seguito dell’evolversi del web, come ad esempio l’utilizzo di tecniche WebRTC2 o di file Sharing3.
Il web 3.0 rappresenterà, si spera, un’evoluzione dell’attuale concetto di web eliminando per prima cosa la centralità ed in questo modo garantire una miglior privacy e sicurezza dei dati. Come per il web 2.0 quando nacque anche per il 3.0 non sono ancora definite delle regole e delle linee guida tanto che si parla ancora di “possibili” evoluzioni e non di certezze, anche se possiamo descrivere quello che probabilmente sarà.
I social rimarranno e si evolveranno dando la possibilità di utilizzare realtà aumentata o virtuale (come nel caso del Metaverso) e nasceranno sempre più spazi virtuali 3D simili a “Second Life”.
L’aumento di contenuti generati dagli utenti trasformerà il web in un enorme Database dove per poter accedere in maniera costruttiva alle informazioni si farà sempre maggior uso del web semantico4 e dell’intelligenza artificiale che imparerà a conoscerci e conoscere i nostri gusti e abitudini. Per poter utilizzare al meglio l’intelligenza artificiale sul web e garantire nel contempo la privacy bisogna però che venga decentralizzata (oggi Alexa, Google, Siri, Cortana, ecc. accedono via web ai server centrali delle rispettive aziende per poter funzionare) e dovrà essere controllata da una grande rete aperta, riducendo i rischi di monopolio.
Per poter attuare un web più decentrato si utilizzerà sicuramente la tecnologia blockchain che, per sua natura, si presenta come un’ architettura decentralizzata. La stessa tecnologia che sta alla base delle criptovalute e che, utilizzata per la sicurezza del passaggio dati nelle filiere, sarà la base dalla quale partirà il web 3.0. La blockchain è una struttura dati condivisa e immutabile, assimilabile a un database distribuito, gestito da una rete di nodi ognuno dei quali ne possiede una copia privata. Tutto questo permetterà di eliminare i webserver centralizzati in quanto i singoli utenti diventano loro stessi dei “miniserver”.
Come l’internet dell’inizio questo metodo garantirà che se anche un nodo va in crash o il server centrale (come ad esempio quello che gestisce Whatsapp, o Youtube o Facebook) il nostro sistema continuerà a funzionare ed i dati continueranno ad essere disponibili tra gli utenti. Questo permetterà anche un passaggio della governance del servizio dove i singoli utenti avranno maggior potere rispetto all’azienda principale; anche le informazioni saranno rivoluzionate e verranno riunite da diverse fonti tramite tecnologie tipo XML, WSDL o simili in un unico database che non esiste realmente ma è semplicemente un raccoglitore, ma al quale si potrà attingere come fosse un normale database.
Il cambiamento non sarà veloce ma assisteremo ad una transizione più “dolce” rispetto a quella dal web 1.0 al 2.0. Per molto tempo i due differenti web (2.0 e 3.0) convivranno ma il cambiamento, anche se lento sarà molto più profondo perché non sarà tanto un cambiamento di come “vediamo” il web ma riguarderà i suoi più profondi paradigmi. Quando arriveranno il metaverso e i su suoi simili saranno ancora sistemi che si basano sul concetto del web 2.0 dove tutto è ancora centralizzato ma dietro a questi compariranno sempre più servizi che si basano su strutture decentralizzate e, per chi fosse incuriosito, segnalo due esempi già esistenti: dtube (https://d.tube/) e OpenBazaar (https://github.com/OpenBazaar/openbazaar-desktop/releases) rispettivamente l’equivalente di Youtube ed e-Bay ma… decentralizzati.
1La Common Gateway Interface (CGI) è un’interfaccia di server web che consente lo scambio di dati standardizzato tra applicazioni esterne e server. Appartiene alle prime tecnologie di interfaccia di Internet. Le CGI sono dei programmi residenti sul server che ricevono in input un “GET” dal client che viene elaborato e come risultato generano una pagina internet standard.
2Con WebRTC si possono aggiungere funzionalità di comunicazione in tempo reale alle applicazioni web, che altrimenti impossibile, a causa della tecnologia di comunicazione utilizzata sul protocollo internet. WebRTC si basa su uno standard aperto. Supporta i dati video, vocali e generici nello scambio di dati, consentendo agli sviluppatori di creare soluzioni efficaci per voce e video. La tecnologia è disponibile su tutti i browser moderni e sui client nativi per tutte le principali piattaforme. Le tecnologie su cui si basa WebRTC vengono implementate come standard web aperti e disponibili come normali API JavaScript in tutti i principali browser. Per i client nativi, come le applicazioni Android e iOS è disponibile una libreria che fornisce la stessa funzionalità. Il progetto WebRTC è open source ed è supportato da Apple, Google, Microsoft, Mozilla e molti altri.
3 Il termine file sharing si riferisce ad un apposito sistema che consente agli utenti di condividere file e documenti sul web o all’interno della medesima rete. Grazie ai programmi e siti di file sharing è infatti possibile trasferire dei documenti da un device all’altro.
4 Nel Web semantico ad ogni documento (un file, un’immagine, un test, etc.) sono associate informazioni e metadati che, fornendo un contesto semantico, ne rendono più facile l’interrogazione e l’interpretazione automatica da parte di un motore di ricerca. L’idea viene ipotizzata alla fine degli anni ’90 da Tim Berners-Lee dove ipotizzava un futuro dove “..il commercio, la burocrazia e le nostre stesse vite quotidiane saranno gestite da macchine che parlano con altre macchine” .
BIBLIOGRAFIA:
Berners-Lee, M. Fischetti, “Weaving the Web“, 1999
Dev, maggio 2006, “Meta Content Frameworks e Rsource Decripti on Frameworks”, pp.61-66
Nel 1086 Guglielmo il Conquistatore diede origine a quello che viene definito il più antico catasto inglese ed il primo di tutto il medioevo: il “Domesday Book”. Il manoscritto originale, scritto in latino su pergamena , è tutt’ora esistente e conservato negli archivi nazionali britannici, nel distretto londinese di Kew.
Nel 1983, durante il governo Thatcher, si decise di fare un “Domesday Book” nuovo che utilizzasse le più moderne tecnologie allora disponibili: il videodisco ed il microcomputer. Quindici anni più tardi tutto il lavoro fatto rischiava di essere inutilizzabile in quanto, anche se il supporto era ben conservato era diventato quasi impossibile trovare un lettore per il videodisco ed un microcomputer in grado di decodificare i dati.
Per fortuna si riuscì a trovare un lettore ed un computer adatti, a recuperare tutto e mettere online i contenuti.
La scelta nel 1983 di utilizzare come supporto un videodisco non sembrava strana: negli anni ’80 la tecnologia laser per la lettura dei dati era al suo inizio e rappresentava il futuro. Il metodo per creare questi supporti, inoltre, era molto simile a quello dei normali CD (nati solamente da pochi anni) e, come loro, anche il videodisco era considerato il supporto perfetto in quanto era robusto, e destinato a durare a lungo.
Purtroppo gli inizi degli anni ’80 hanno rappresentato non solo l’inizio della massificazione dell’informatica ma anche il suo “brodo primordiale” nel quale vi era una quantità enorme di sistemi operativi, formati e standard diversi che nascevano e morivano. Per fare un esempio il DOS 1.2 che sarebbe diventato il sistema operativo di riferimento per le macchine XT compatibili era stato commercializzato da appena un anno ed in breve tempo la “lingua” nel quale erano stati memorizzati i dati del nuovo “Domesday Book” digitale era diventata sconosciuta e anche i mezzi erano spariti.
Fin dall’inizio dell’invenzione della scrittura, l’uomo ha conservato i documenti pensando che si potessero consultare per sempre purché non si rovinasse il supporto sul quale erano “memorizzati”: una vecchia pergamena sarà sempre leggibile (a patto di conoscere la lingua nella quale è stata scritta) semplicemente aprendola, così come un libro o una tavoletta cuneiforme. Il passaggio al digitale ha dimostrato che questo non è più possibile e che, oltre all’informazione, è importante avere anche lo strumento per leggerla. Nel 1965 Gordon Moore, cofondatore dei Intel, elaborò quella che passerà alla storia come legge di Moore: “La complessità di un microcircuito, misurata ad esempio tramite il numero di transistor per chip, raddoppia ogni 18 mesi (e quadruplica quindi ogni 3 anni).” Questa affermazione, basata su osservazioni empiriche, si rivelò esatta e divenne l’obbiettivo che tutte le aziende produttrici di microprocessori si pongono come obbiettivo.
Come diretta conseguenza di questo abbiamo una costante accelerazione della tecnologia e una conseguente evoluzione dei sistemi informatici. Prendiamo ad esempio il classico floppy disk: si è passati dal primo floppy ad 8 pollici a quello da 5 ¼ per finire con quelli da 3 ½ negli anni ’90 e primi anni del nuovo secolo per poi sparire completamente. Se oggi è ancora possibile trovare un lettore per “dischetti” da 3.5 pollici è molto difficile trovarne di quelli che leggono quelli precedenti da 5 ¼ e quasi impossibile quelli da 8” e chi trovasse in soffitta dei vecchi floppy quasi certamente si troverebbe nella condizione di non sapere cosa farsene o come leggerli.
Pensare che questo problema riguardi solamente i mondo dei computer è sbagliato.
Anche le cassette musicali o i vecchi video su VHS o Video 8 hanno subito lo stesso destino: gli strumenti per leggere questi supporti sono gradualmente spariti dagli scaffali dei negozi di elettronica e chi ha ancora delle vecchie video cassette, magari con le vacanze fatte con la famiglia una ventina d’anni addietro, rischia di non poterle più rivedere tra qualche decade.
Ma a creare problemi nel passaggio dall’analogico al digitale non è solamente l’utilizzo di un supporto anziché un altro ma anche, come abbiamo visto, la “lingua” nella quale le informazioni sono memorizzate, in particolare se la tecnologia ed il metodo di codificarle utilizza un formato proprietario.
I formati proprietari sono, in genere, dei metodi di codifica delle informazioni che utilizzano algoritmi che appartengono a qualche azienda o organizzazione che ne dispone i metodi di utilizzo. Se un domani chi detiene il brevetto per questo tipo di codifica decidesse di non renderlo più disponibile nei suoi programmi o in quello di altri si perde la possibilità di poter accedere nuovamente ai propri dati. Vice versa l’utilizzo di quelli che vengono chiamati formati aperti, permette di memorizzare le informazioni in formato digitale utilizzando dei metodi che sono di dominio pubblico e liberamente utilizzabili.
Un esempio di quanto l’utilizzo di un formato aperto sia importante lo si trova negli ebook.
Alla fine degli anni ’90 l’azienda statunitense Microsoft lanciò sul mercato un suo formato per leggere gli e-book; un formato che offriva la possibilità di avere file leggeri e una buona leggibilità su schermi piccoli. In particolare Microsoft stava entrando a gamba tesa nel mercato dei dispositivi mobili come PDA, Palmari, Pocket PC e smartphone con il suo sistema operativo Windows CE ed il formato .lit era perfetto per poter sviluppare un mercato di editoria digitale su questo tipo di dispositivi che utilizzavano questo il sistema operativo. Per circa una decina d’anni (fino al 2011) il formato Microsoft visse una parabola: prima una crescita e poi una discesa fino a non venir più aggiornato e supportato, così che tutti i libri distribuiti in quel formato sono ora leggibili solo tramite il sistema operativo Windows che supportano l’ultima versione del programma Microsoft Reader, in quanto i moderni lettori di e-book non hanno più la compatibilità con questo formato. Al suo posto, invece, il formato .ePub, nato nel 2007 come formato aperto, è diventato lo standard preferenziale per quasi tutti i lettori di e-book (fanno eccezione i Kindle che supportano il formato proprietario .mobi), tanto che esistono migliaia di app e programmi che possono supportare questo formato.
È quindi importante, quando si decide di memorizzare delle informazioni per essere conservate fare attenzione al formato che si vuole utilizzare: se memorizzo del testo formattato è sempre meglio optare per il formato .ODT anziché .DOC o DOCX di word, così per le pagine web è sempre meglio preferire il formato HTML al posto del . WebArchive che è leggibile solamente dal browser Safari di Apple.
Il passaggio dai dati analogici a quelli digitali (dalle cassette ai CD, dai VHS ai DVD, eccetera) è comunque un passaggio inevitabile e, malgrado quanto detto fino ad ora, la possibilità di salvare qualcosa in una sequenza di 0 e 1 offre una serie di vantaggi che non si possono ignorare.
Rispetto ad un’informazione analogica, quella digitale può essere riprodotta infinite volte anche dalle sue stesse copie, rimanendo sempre fedele all’originale (a meno che non venga deliberatamente modificata). Un manoscritto, se è copiato con un errore, quest’errore verrà ripetuto anche nelle copie successive; una cassetta, musicale o video che sia, tenderà a perdere di qualità con il tempo e quest’informazione errata sarà amplificata nelle copie successive, così come una serie di fotocopie fatta da altre fotocopie tenderà ad essere sempre più chiare e quindi differire dall’originale.
Per chi si preoccupa che anche nel copiare un dato in digitale possa generarsi un errore di trascrizione bisogna sottolineare quanto questo sia improbabile: si può trasmettere un’informazione che contiene al suo interno i dati necessari per la correzione degli errori (come ad esempio il codice Reed-Solomo del 1960) che permettono, anche nel caso una parte di dei bit che compongono il messaggio memorizzato o inviato siano rovinati, di poter ricostruire la sequenza digitale originale per quel bit in modo da avere l’informazione completa. Ogni giorno, quando guardiamo la televisione digitale (per chi come me ha anche visto i vecchi tv analogici) ci accorgiamo che l’immagine è sempre o chiara e pulita oppure assente completamente, e non più come nelle vecchie trasmissioni in analogico dove spesso i programmi erano disturbati. Questo perché un’informazione in digitale, come abbiamo detto è in grado di auto correggersi ed eliminare il “rumore”.
Da un punto di vista economico, salvare i propri dati in formato digitale offre dei grandi risparmi. Stampare una foto analogica, ad esempio, ha un costo di circa 8,50 € per un rullino da 25 pose di pellicola negativa in bianco e nero, 7,50 € per i negativi a colori (procedimento C41) e 11 € per le diapositive (procedimento E6) più 2 € per l’intelaiatura per queste ultime. Al costo della stampa va poi aggiunto il prezzo del rullino che è di circa 6,00€ per 24 pose come nel caso del Kodak Gold 200. Facendo due conti veloci il costo di una foto in analogica è di circa 0,50€.
Utilizzare invece il formato digitale permette di visualizzare la foto su molti dispositivi, dagli smartphone alle televisioni senza costi di sviluppo. Considerando il prezzo di una scheda SD di buona qualità con una capacità di 64Gb è di circa 25,00€ e che si possono memorizzare più di 9.000 foto1, mentre per stamparle il costo è di circa 0.05€ a foto. Se poi si volesse memorizzare le foto anziché su di una scheda SD su di un Hard Disk il prezzo per Mb è ancora più basso.
Per finire, salvare i dati in formato digitale non solo è più conveniente, ma aiuta ad avere un impatto ambientale, sul breve periodo, molto basso.
I dispositivi non sono però tutti uguali e quando parliamo di Hard disk, memorie USB o schede SD bisogna sempre tenere presente che questi supporti hanno un numero massimo di scritture possibili e che Hard Disk e memorie allo stato solido come SSD, anche se possono sembrare simili, memorizzano i dati in maniera diversa: se per un tradizionale hard disk possiamo considerare una vita media di almeno 10 anni per una memoria allo stato solido come und disco SSD i dati si possono scrivere su una cella di memoria all'interno dei chip NAND Flash, un numero di volte compreso tra circa 3.000 e 100.000 nel corso del loro ciclo di vita. Questo ciclo di vita scende ulteriormente se si parla di schede SD o di chiavette USB.
Certo si può pensare di salvare tutti i dati su un supporto ottico come ad esempio un CD o un DVD ma anche in questo caso il nostro disco, anche se conservato con attenzione, non è detto che sia sicuro: negli ultimi anni si sono verificati casi di CD (spesso di fascia economica) dove lo strato protettivo di plastica si sfaldava lasciando esposta la parte interna che contiene i dati dopo solo 10 anni.
Per risolvere questi problemi nell’ultimo decennio si è iniziato ad utilizzare sempre di più il “Cloud” per salvare i dati importanti; alcune aziende mettono, addirittura, automaticamente a disposizione un servizio di cloud dove salvare i dati e le foto presenti nei propri telefoni cellulari come Apple o Google.
Ma anche in questo caso i dati non sono propriamente al sicuro, anzi forse lo sono ancora meno di altri supporti perché il vero proprietario è chi amministra il servizio di Cloud e non l’utente che salva i dati in quel posto e se l’azienda che è proprietaria dei server, per un qualunque motivo, decidesse di interdire l’accesso ai dati o di cancellarne il contenuto, l’utente non potrebbe fare nulla. L’utilizzo di un servizio remoto per salvare i propri dati è quindi da considerare come una copia della copia e non come la soluzione principale.
A questo punto viene da chiedersi: “se siamo passati dai 2000 anni circa di durata di un papiro ai 20 scarsi di un CD conviene passare i propri dati, le proprie memorie, la propria vita in un formato digitale?”
Malgrado quello che si può pensare la risposta è Si!
Un sì dato che i vantaggi superano di molto gli svantaggi; un sì che richiede l’uso attento di poche e semplici regole per preservare le nostre memorie, come l’utilizzo di supporti di qualità (soprattutto nel caso si utilizzino chiavette USB o CD piuttosto che DVD), avere sempre una copia della copia dei dati importanti e, ultimo ma non per questo di minor considerazione, utilizzare dei formati che siano il più aperti possibili come JPG o PNG per le foto, ODT o TXT per i testi, XML o HTML per il web, eccetera.
1Dati indicativi per difetto considerando foto a 16MPx e 72DPI.
BIBLIOGRAFIA:
L’App IO per il “Cash Back” rientra nel più ampio “Piano Italia cashless” volto ad incentivare l’uso dei pagamenti elettronici. A differenza di quanto è successo per l’app Immuni, questa nuova iniziativa del Governo Italiano sembra aver avuto maggior successo e sembra anche che la maggior parte dei preconcetti riguardo la privacy, che hanno rallentato l’utilizzo dell’app di tracciabilità del Covid, non abbiano disincentivato questa volta gli utenti a scaricarla, malgrado la privacy sia meno tutelata realmente con l’uso di IO per il cashback.
Cos’è il Cashback di Stato
Cashback significa ottenere indietro i soldi in cambio degli acquisti effettuati che, in questo caso, prevede il rimborso del 10% da parte dello Stato Italiano, delle spese effettuate con sistemi di pagamento elettronici nei negozi. L’ 8 dicembre è partita la versione sperimentale di questo procedimento; nei piani del governo il cashback è una delle misure pensate per disincentivare l’uso del contante, spingere i pagamenti digitali e contrastare l’evasione fiscale.
Il procedimento di Cashback non è nuovo, diverse carte di pagamento, negozi online e app di pagamento lo hanno utilizzato e lo utilizzano tutt’ora come strumento promozionale o di fidelizzazione (e a volte è stato utilizzato anche da truffatori e siti malevoli). Si capisce subito che questo procedimento non è propriamente un metodo di guadagno, visto che non c’è alcun ricavo sull’acquisto e non è neanche uno sconto, dato che i soldi vengono accreditati a posteriori quando la spesa è già fatta, ma possiamo considerare invece il normale cashback come una ricompensa che una carta, un negozio o un sito riconosce agli utenti che sono fidelizzati.
Il metodo di rimborso ideato dal Governo Conte è invece una misura ideata nel tentativo di arginare, come abbiamo detto, l’evasione fiscale e modificare le abitudini dei cittadini Italiani verso metodi di pagamento tracciabili.
Quella iniziata l’ 8 dicembre è una sperimentazione e, per adesso, è valida solo se si utilizzano carte di credito, di debito o bancomat mentre sono escluse le app come Google Pay o Apple Pay che saranno attive con l’inizio ufficiale dal 1° gennaio 2021. Il rimborso sarà semestrale e di un importo massimo di 1.500 euro; per ottenerlo, però, è necessario fare almeno 50 pagamenti, che vanno da un minimo di 1 euro ad un massimo 150 euro, nei sei mesi.
Chi volesse aderire al cashback deve essere maggiorenne e residente in Italia. Deve poi registrarsi all’app IO della piattaforma della Pubblica Amministrazione, tramite l’SPID o con la carta d’identità elettronica, quindi bisogna indicare il proprio codice fiscale, uno o più sistemi di pagamento elettronico che si utilizzeranno per i pagamenti, e l’Iban del conto corrente su cui verrà accreditato il cashback ogni sei mesi.
L’app IO
L’app IO non è solamente utilizzabile per il cashback ma è un progetto del Governo Italiano, già attivato lo scorso 18 aprile, che permette ai cittadini di poter accedere in modo semplice ai servizi della Pubblica Amministrazione, sia locale che nazionale, direttamente da smartphone.
Un cittadino può tramite IO, ad esempio, ricevere messaggi e comunicazioni riguardanti le proprie scadenze verso la PA come carta d’identità, permesso ZTL, ricevere avvisi di pagamento con la possibilità di pagare tasse come il bollo auto o la TARI direttamente dall’app, mentre in futuro sarà anche possibile ottenere certificati, documenti personali digitali e molto altro.
Dall’8 dicembre, dicevamo, è possibile utilizzare IO anche per registrare i pagamenti associati al cashback di stato. Ad oggi (metà dicembre 2020) i cittadini che hanno scaricato l’app sono più di 8 milioni con un incremento significativo a partire dall’inizio del mese a pochi giorni prima dell’avvio sperimentale del Cashback di stato (un milione in più solamente tra il 7 e l’8 dicembre).
Per utilizzare l’app IO bisogna prima di tutto scaricarla dallo store del nostro dispositivo (Android o I/OS); una volta scaricata ed installata l’app ci chiede la registrazione, che avviene tramite SPID oppure via carta d’identità elettronica. E qua iniziano i primi problemi in quanto non tutti i cittadini italiani hanno un SPID o una carta digitale e quindi bisogna munirsi di uno di questi due strumenti. Il sito spid.gov.it mette a disposizione una lista di diversi “gestori d’identità” abilitati alla generazione dello SPID gratuitamente, ma il processo non risulta mai comodo o semplice.
Poste italiane, ad esempio, permette di avere un SPID gratuitamente recandosi presso uno degli sportelli di Poste Italiane o a pagamento se un incaricato si reca a casa. Anche altri gestori premettono il riconoscimento di persona, ma giustamente, bisogna recarsi presso i loro uffici. Ci sono anche metodi di riconoscimento da remoto, tramite webcam, carta d’identità elettronica o passaporto elettronico ma non tutti i fornitori del servizio lo mettono a disposizione gratuitamente.
Una volta registrata l’app IO, tramite SPID o CIE, l’utente deve indicare un pin ed eventualmente registrare la propria impronta digitale, dopo la prima registrazione, per accedere ogni volta basterà inserire il pin e non sarà più necessario utilizzare l’SPID.
E la privacy?
Appena uscita l’app IO ha subito manifestato dei problemi dato il grande numero di query effettuate che i server non erano in grado di gestire (tanto che nuovamente Pornhub aveva offerto l’utilizzo dei propri server), e l’ hashtag #IOapp è stato uno dei più utilizzati per visualizzare le lamentele degli utenti.
Accanto a questo hashtag però un altro compare nelle ricerche: #IOappPrivacy.
Ad onor del vero l’informativa sulla privacy andrebbe sempre letta quando scarichiamo ed installiamo un’app o un programma e a maggior ragione andrebbe letta quando riguarda dati estremamente sensibili come nel caso dell’app IO.
Ma quali dati sono interessati da questa app?
Abbiamo detto che per utilizzare il servizio cashback bisogna comunicare all’app IO il proprio codice fiscale e il proprio IBAN, mentre gli altri dati che l’app raccoglie sono gli estremi della carta, i dati identificativi del titolare della carta stessa, gli Importi degli acquisti e la loro geolocalizzazione nonché la cronologia di questi ultimi.
Certo, viene da obbiettare che la maggior parte di questi dati sono già in possesso dell’azienda che eroga i servizi, qual è quindi la differenza ?
Mentre nel caso di utilizzo di una o più carte su di un sito o presso un negozio ogni dato rimane a disposizione solamente del gestore della carta e del gestore del sito, nel caso di IO la questione è più complessa perché se registriamo e abilitiamo al cashback più carte tutti i dati delle transazioni tramite tali carte vanno a finire dentro un unico grande gestore che ha accesso a tutti i dati e può anche incrociarli.
Il fatto che l’acquisto con metodo di pagamento elettronico sia incentivato dal cashback, poi, stimola l’utente a fare più transazioni con le carte e le app e, quindi, a concedere più dati di quanti non ne concederebbe normalmente. Ai dati delle carte si aggiunge poi il codice IBAN sul quale versare il cashback, che può anche essere diverso dall’eventuale IBAN della carta di pagamento. Insomma il paradiso dei Big Data!
L’app IO è gestita dal MEF (Ministero dell’Economia e delle Finanze ) che è titolare del trattamento dei dati personali, mentre le due società controllate pubbliche PagoPA S.p.A. e Consap S.p.A. sono responsabili del trattamento dei dati personali in rispetto del GDPR. PagoPA e Consap sono autorizzate a nominare eventuali sub-responsabili, in caso, quindi alcune operazioni sui dati vengano subappaltate.
In particolare PagoPa organizza e gestisce tutto il funzionamento del meccanismo del cashback, mentre Consap gestisce gli eventuali reclami tramite una piattaforma web appositamente creata.
Quello che fa riflettere è un paragrafo della privacy policy di IO per il cashback che specifica che alcuni dati potrebbero essere inviati a dei paesi extra-UE: “Per la gestione dell’App IO, utilizzata per il servizio Cashback e gestita da PagoPA S.p.A., la predetta Società si avvale, limitatamente allo svolgimento di alcune attività, di fornitori terzi che risiedono in paesi extra-UE (USA). Per lo svolgimento di alcune attività connesse alla gestione dei reclami attraverso il Portale dedicato, Consap S.p.A. si avvale di fornitori terzi che hanno la propria sede in Paesi extra-UE (USA) “. Stando a quanto afferma PagoPA uno dei soggetti terzi è l’azienda americana Oracle sui cui server sono ospitati i dati dei reclami (indirizzo di posta elettronica e password, codice fiscale, nome e cognome, dati dei documenti di identità allegati, dati relativi al reclamo stesso). Insomma sembra che questa clausola esista solo per permettere l’utilizzo di server di aziende extra UE che comunque sono localizzati fisicamente in Europa e la cui trasmissione dei dati avviene in maniera crittografata, quindi sicura.
Per finire va sottolineato che la privacy policy dell’app chiarisce che è vietato, oltre alla vendita dei dati, ogni utilizzo per scopi di profilazione, il che vuol dire che non arriverà nessuna pubblicità mirata legata ai dati che raccoglie l’app IO e che ogni utente può uscire in ogni momento dal piano cashback, richiedendo la cancellazione dei propri dati.
Tutto risolto quindi? Non proprio. L’invio di dati negli Stati Uniti è ormai ritenuto non sicuro da parte dell’Unione Europea dato che il governo USA ha potere di accesso ai dati degli europei e, a quanto sembra, questo viene fatto regolarmente.
E questo non è complottismo visto che la Corte di giustizia dell'Unione europea (CGUE) si è pronunciata il 16 luglio 2020 (c.d. "Sentenza Schrems II") in merito al regime di trasferimento dei dati tra l'Unione europea e gli Stati Uniti facendo notare proprio questo e sottolineandolo nelle FAQ :” La Corte ha ritenuto che i requisiti del diritto interno degli Stati Uniti, e in particolare determinati programmi che consentono alle autorità pubbliche degli Stati Uniti di accedere ai dati personali trasferiti dall'UE agli Stati Uniti ai fini della sicurezza nazionale, comportino limitazioni alla protezione dei dati personali che non sono configurate in modo da soddisfare requisiti sostanzialmente equivalenti a quelli previsti dal diritto dell'UE”.
Non è questa la sede per giudicare le iniziative del governo a riguardo dell’utilizzo dei pagamenti elettronici per contrastare l’evasione fiscale, ne valutare se utilizzare la carta per pagare ad esempio un caffè (visto che il conteggio per il rimborso inizia da spese che partono da 1 euro) sia eticamente accettabile, ma quello che rileviamo è che nuovamente le iniziative messe in campo dal Governo per digitalizzare le attività si sono rivelate alquanto deficitarie soprattutto per le carenze delle infrastrutture di rete, assolutamente non in grado di reggere ampi e sostenuti volumi di traffico on line.
Un altro dato che è da notare riguarda la differenza di download rispetto all’app Immuni che è stata boicottata da molti utenti preoccupati per la privacy che si presumeva venisse violata, mentre per l’app IO per il cashback, questi stessi utenti non hanno avuto gli stessi dubbi, come se il desiderio di attaccarsi alle mammelle della sovvenzione statale li rendesse liberi da ogni turbamento e dubbio morale.
Svetonio ne “Le vite dei cesari” ci riferisce che l’imperatore Vespasiano rispose al figlio Tito che lo rimproverava per una tassa sugli orinatoi con la frase “non olet” (non puzza – la tassa-).
Da allora la frase viene spesso citata per indicare che non bisogna essere troppo schizzinosi riguardo la provenienza dei soldi e così, ripensando a questa frase, chiudiamo queste riflessioni pensando a tutti quei cavalieri “duri e puri” che si battevano contro Immuni per tutelare la privacy e si sono arresti miseramente a IO.
Bibbliografia:
https://io.italia.it/cashback/privacy-policy/
https://io.italia.it/dashboard/
https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/9442415
https://www.spid.gov.it/richiedi-spid
Sebbene il termine 5G stia ad indicare la quinta generazione di sistemi di telefonia mobile non si tratta di un semplice evoluzione del 4G come i vari passaggi da 2G (il famoso GSM) a 3G, 4G per finire con il 4,5G ma di qualcosa di diverso, come il passaggio tra Etacs che era ancora analogico, al GSM digitale
A metà dell’800 Maxwell elaborò le prime formule matematiche sull’elettromagnetismo che ampliavano e completavano gli studi di Faraday; Le ricerche di Maxell aprirono la porta a tutta una serie di studi di altri scienziati tra i quali vi era il tedesco Heinrich Hertz che nel 1886 costruì un apparecchio in grado di generare onde relativamente lunghe ed un altro che poteva riceverle.
Hertz si dimostrò scettico sull’utilità pratica del suo strumento dichiarando ” È priva di qualunque uso pratico (…) è soltanto un esperimento che prova come il maestro Maxwell avesse ragione…” e a chi insisteva interrogandolo sul suo punto di vista su ciò che poteva accadere come conseguenza della sua scoperta ribadiva :”Nulla presumo”. Per fortuna non tutti la pensavano così e l’esperimento di Hertz portò alla creazione della radio.
Le onde radio sono una radiazione elettromagnetiche e, queste ultime, sono presenti praticamente ovunque in natura: la stessa luce visibile è una forma di radiazione elettromagnetica, come le microonde, i raggi X e le onde radio.
Ma cosa sono le radiazioni elettromagnetiche?
La radiazione elettromagnetica può essere trattata secondo due punti di vista: secondo la teoria ondulatoria e secondo la teoria corpuscolare o quantica. Quella che interessa a noi, in questo momento è la teoria ondulatoria secondo la quale la radiazione elettromagnetica si comporta come un’onda che viaggia alla velocità della luce (c) e può essere descritta in termini della sua lunghezza d’onda λ e della sua frequenza di oscillazione ν dove la lunghezza d’onda è la distanza tra i massimi successivi di un onda, mentre la frequenza (ν) è il numero di cicli completi di un onda che passano per un punto in un secondo e l’unità di misura è chiamata Hertz.
Questi due parametri sono legati dall’equazione: λ = c/ν e da qua ricaviamo che la lunghezza d’onda è inversamente proporzionale alla frequenza ovvero aumenta con il diminuire della frequenza.
Per fare un esempio pratico la luce visibile dall’occhio umano è compresa tra una frequenza che varia dai 400 e 700 nanometri.
Le onde radio hanno una lunghezza che varia dai 10cm ai 10Km, all’interno di questa lunghezza le frequenze che vengono utilizzate per la radiocomunicazione (Tv, Radio, Telefonia mobile, ecc.) va dai 3 kHz e 300 GHz. Fino ad ora, per la telefonia mobile, si sono utilizzate le frequenze che vanno dai 900 Mhz dei 2G (GSM) ai 2600 Mhz dei 4G (LTE) e tutti i telefoni cellulari 4G di ultima generazione sono in grado di passare da una frequenza all’altra a seconda della copertura. Questo tipo di frequenze hanno delle lunghezze d’onda che non vengono assorbite facilmente nel loro cammino da ostacoli di medie dimensioni, come le case o gli alberi e possono essere trasmesse a distanza perché (come dimostrato da Marconi) vengono riflesse dagli strati ionizzati dell'atmosfera. Sebbene tecnicamente il 4G LTE sarebbe in grado di velocità fino a 300 Mbps, in realtà siamo nell’ordine di 5-12 Mbps in download e 2-5 Mbps in upload, con picchi che scendono tra i 5 e gli 8 Mbps (alcuni test di operatori di telefonia italiani nel 2014 sono arrivati oltre i 30Mbps ma erano solo test in condizioni ottimali).
Come potrà allora il 5G riuscire a superare le velocità attuali?
Immaginiamo le frequenze come un triangolo equilatero con la punta verso il basso, le telecomunicazioni utilizzano le frequenze che si trovano vicino alla punta mentre in alto (nella parte larga) sopra i 24Ghz non vi è praticamente traffico; questo è dovuto al fatto che le onde a quella frequenza hanno lunghezza molto corta e quindi non riescono a superare facilmente gli ostacoli.
La tecnologia 5G utilizzerà tre spettri di frequenza: dai 694-790 Mhz, 3,6 e 3,8 GHz per finire con 26,5 e 27,5 GHz.
Nel primo range di frequenza fanno parte anche le trasmissioni di alcuni canali della televisione digitale ed è uno dei motivi (ve ne sono anche altri come il tipo di compressione del segnale), che si dovranno cambiare i decoder dei televisori non predisposti; questo tipo di frequenza è necessario dato che riesce a passare attraverso gli ostacoli normali (alberi, case, ecc.) pur potendo trasmettere parecchie informazioni. Il secondo gruppo di frequenze offre una buona velocità di connessione ma è più soggetta ad essere bloccata dagli ostacoli. Questo lo possiamo verificare anche nelle nostre case: i router casalinghi utilizzano le frequenze 2,4 e 5Ghz, se utilizzo i 5Ghz avrò una “maggiore” velocità nella comunicazione con il router dato che maggiore la frequenza, maggiore è la velocità con cui trasmette i dati, ma il segnale è “più debole”. L’ultimo gruppo di frequenze hanno una lunghezza d’onda più corta delle precedenti e quindi una frequenza maggiore il che si traduce nella possibilità di trasmettere molto velocemente i dati ma che gli ostacoli sul cammino possono bloccare o diminuire di molto il segnale.
La prima conseguenza dell’utilizzo di queste frequenze è quello che per un utilizzo ottimale del 5G sarà necessario aumentare la copertura delle celle presenti sul territorio e che non sempre sarà possibile utilizzare il 5G al massimo delle sue potenzialità. I più penalizzati saranno, quasi sicuramente, gli utenti che vivono nelle zone rurali nelle quali è più difficile posizionare una grande quantità di ripetitori rispetto che nelle città e, se sono presenti anche alberi, difficilmente sarà possibile avere la copertura sopra i 26 Ghz se si è troppo lontani dai ripetitori dato che l’acqua presente nel tronco e nelle foglie tende ad assorbire le onde più facilmente. È probabilmente la banda che verrà utilizzata maggiormente dagli smartphone nel primo periodo di diffusione del 5G sarà quella compresa tra i 3,6 ed i 3,8 Ghz che offrirà comunque una velocità maggiore del 4,5G.
Il fatto che il 5G utilizzi una frequenza così altra ha destato molte preoccupazioni e leggende metropolitane tra gli internauti tanto da creare veri e propri comitati contro l’utilizzo di questa tecnologia. In realtà non succederà, come sostengono molti, che vi sarà un abbattimento indiscriminato di alberi per dare la possibilità al segnale di arrivare facilmente, ma più probabilmente in futuro nascerà una nuova forma di digital divide tra le zone più o meno servite a causa delle pesanti norme esistenti.
Un'altra delle paure infondate che sono nate è che l’utilizzo delle frequenze così alte possano essere dannose per l’uomo e che le onde del 5G possa cuocerci come i forni a microonde.
In realtà è già da parecchi anni che si parla di eventuali danni che i campi elettromagnetici (in particolare l’uso del cellulare) possono generare nell’uomo ma, malgrado quello che dicono i giudici con una recente sentenza della cassazione, non vi sono prove scientifiche di questo e nessuno scienziato ha potuto portare una dimostrazione che questo sia vero.
È vero che i campi elettromagnetici generano calore (come nei forni a microonde) ma questo tipo di onde hanno lunghezze d'onda che vanno da 1 mm a 30 cm, uno spettro che è sotto quello delle radiazioni infrarosse. Tra le organizzazioni internazionali deputate al monitoraggio della salute delle persone solamente l'Agenzia Internazionale per la Ricerca sul Cancro (IARC) ha classificato i campi elettromagnetici a radiofrequenza (CRF) come cancerogeni di gruppo 2B (nella stessa classifica risultano, ad esempio l’estratto di foglie di Aloe e l’estratto di kava), e considera limitato il grado di correlazione tra l'utilizzo intensivo di telefoni cellulari e lo sviluppo di tumori cerebrali, mentre lo considera non dimostrato scientificamente per tutti gli altri tipi di cancro. Bisogna in fine considerare che la tecnologia 5G si basa su antenne adattative che sono caratterizzate non più da una emissione costante di potenza in tutte le direzioni, ma da una emissione “adattativa” in base al numero di utenze da servire, dalla loro posizione e dal tipo di servizio.
Del 5G si è detto e si dirà molto, ma certamente rappresenta un passo avanti nelle telecomunicazioni soprattutto per l’internet delle cose, ma la preoccupazione vera è che questa nuova tecnologia a causa delle sue limitazioni andrà ad aumentare il gap tecnologico che esiste anziché diminuirlo.
Il Consiglio Europeo, dal canto suo, è convinto che la nuova tecnologia favorirà l'innovazione dei modelli commerciali e dei servizi pubblici ma che in paesi come l’Italia, con norme molto restrittive sulla radioprotezione, c’è il rischio di rallentare lo sviluppo delle nuove reti ed invita i paesi membri ad adottare le linee guida dell’ICNIRP (International Commission on Non Ionizing Radiation Protection) che rappresentano il massimo riferimento scientifico del settore.
BIBLIOGRAFIA
Rif.: Ian Stewart, “Le 17 equazioni che hanno cambiato il modno”, Frontiere, edizione 2019, pp.267-287
Rif.: IARC, https://monographs.iarc.fr/agents-classified-by-the-iarc/
Rif.: O.M.S. : https://www.who.int/en/news-room/fact-sheets/detail/electromagnetic-fields-and-public-health-mobile-phones
Rif.: Camera dei Deputati Servizio Studi: https://www.camera.it/temiap/documentazione/temi/pdf/1105154.pdf
Rif: Arpa Emilia-Romagna: https://www.arpae.it/dettaglio_generale.asp?id=4149&idlivello=2145
Il secondo decennio del 21 secolo è appena iniziato e pochi si ricordano che solamente vent’anni fa abbiamo rischiato una piccola regressione digitale.
Questa riflessione nasce da un post che sta girando da qualche giorno sui maggiori social network e programmi di IM che avverte che “Quando scriviamo una data nei documenti, durante quest’anno è necessario scrivere l’intero anno 2020 in questo modo: 31/01/2020 e non 31/01/20 solo perché è possibile per qualcuno modificarlo in 31/01/2000 o 31/01/2019 o qualsiasi altro anno a convenienza. Questo problema si verifica solo quest’anno. Stare molto attenti! Non scrivere o accettare documenti con solo 20. Fate girare questa utile informazione”.
A prescindere dal fatto che in tutti i documenti legali è buona norma (quando non obbligatorio) usare la data in formato esteso, tutti i documenti che prevedono una registrazione prevedono anche una datazione estesa al decennio, fin dai tempi del Millennium Bug.
Ma cosa è stato questo Millennium Bug che tanto ha spaventato alla fine del 1999 il mondo informatico e che è passato senza troppi problemi tanto che oggi c’è chi (i complottisti esistono sempre!) crede che non sia mai stato un reale problema ma un’invenzione atta a far spendere solti alle aziende, agli stati ed ai singoli utenti?
Spieghiamo subito che il termine Bug, in informatica, identifica un errore di programmazione e nel caso del Y2K (come veniva chiamato il Millenium Bug) non si trattava di un errore di programmazione ma di una scelta dettata dalle necessità: all’inizio dell’era informatica e dei personal computer la memoria rappresentava una risorsa così, quando si scrivevano le date, per gli anni si pensò di utilizzare solamente le ultime due cifre che componevano l’anno e non tutte e quattro così 1972 si scriveva 72.
Ma cosa sarebbe successo al cambio di data dalla mezzanotte dal 31 dicembre 1999 al 1º gennaio 2000 nei sistemi di elaborazione dati? Il cambio di millennio avrebbe portato a considerare le date 2000 come 1900 e i problemi che si presentavano erano parecchi, dal valore degli interessi maturati alle date dei biglietti aerei, dal noleggio di automobili ai dati anagrafici dei comuni, dai possibili blocchi delle centrali elettriche alla paura di disastri nucleari.
Per rendere un’idea del panico che venne propagato basta pensare che negli stati uniti vi fu un aumento dell’acquisto di armi e che la stessa unione europea istituì una commissione per l’analisi dei rischi dell Y2K ( https://.cordis.europa.eu/article/id/13568-commissions-analysis-of-the-y2k-problem).
Oggi sappiamo che il problema del Millenium Bug era noto da tempo ad ingegneri e programmatori, molto prima che diventasse un problema mediatico, e che si iniziò a lavorare per evitarne le catastrofiche conseguenze.
La Microsoft con i suoi sistemi operativi Windows95 e Windows98 era preparata e le patch (una porzione di software progettata appositamente per aggiornare o migliorare un determinato programma) che vennero distribuite furono pochissime, non lo stesso per il vecchio window 3.11 che stava in quel periodo terminando la sua vita operativa e che dovette subire parecchi aggiornamenti; i Bios dei computer vennero aggiornati (quando non lo erano già), mentre per i sistemi Linux non si presentarono problemi.
Dire che però tutto filò liscio come l’olio non è esatto, alcuni problemi vi furono e se non diventarono tragedie fu solo perché l’allerta data permise di avere del personale preparato allo scattare della mezzanotte.
Infatti se alcuni problemi come accadde nello United States Naval Observatory che gestisce l’ora ufficiale del paese e sul Web segnò come data il 1 gennaio 1900, o del cliente di un negozio di noleggio video dello stato di New York si trovò sul conto $ 91.250, possono essere considerati fastidiosi in altri casi si rischiò la catastrofe: la centrale nucleare di Onagawa ebbe qualche problema di raffreddamento che scatenò l'allarme 2 minuti dopo mezzanotte, egli Stati Uniti, il sistema di elaborazione dei messaggi della Guardia costiera venne interrotto, alle Hawaii vi furono interruzioni di corrente.
Più tragico fu quanto accadde a Sheffield, nel Regno Unito, dove ci furono valutazioni errate del rischio per la sindrome di Down inviate a 154 donne gravide e vennero effettuati due aborti come risultato diretto del Y2K (dovuto ad un errore di calcolo dell'età della madre), mentre quattro bambini affetti da sindrome di Down sono nati da madri a cui era stato detto che si trovavano nel gruppo a basso rischio ovvero che le possibilità che succeda una cosa del genere era pari a zero.
A vent’anni di distanza possiamo dire che se il Millenium Bug non ha causato danni catastrofici non fu perché il problema non esisteva o era una bufala, ma perché, seguendo il principio di precauzione, sotto spinta del governo americano che aveva riconosciuto che un singolo governo non sarebbe riuscito a intervenire in prima persona ovunque fosse stato necessario e che il rischio potenziale era troppo elevato per poterlo ignorare, aveva coinvolto tutta la società e altri stati tramite un sistema di cooperazione: era impossibile stabilire a priori quali e quanti danni potevano essere arrecati quindi le istituzioni, mentre si preparavano per ogni evenienza, dovevano informare il pubblico sui rischi, e mettere pressione alle aziende affinché iniziassero una politica per evitare i danni del Y2K.
Anche se non tutti i governi investirono nello stesso modo (l’Italia fu il fanalino di coda nell’Eurozona) la comunicazione e l’allarme di massa aveva funzionate e man mano che si procedeva l’aggiornamento dei software e dei Bios, il rischio si riduceva.
Oggi lo stesso tipo di allarme che vent’anni fa venne dato per il Millenium Bug viene dato per il riscaldamento globale ed il cambiamento climatico: dopo che i tecnici del settore (scienziati, fisici, climatologi, ecc.) hanno per devenni avvertito dei rischi intrinsechi derivati dal climate change anche nell’opinione pubblica si sta sviluppando la preoccupazione per un simile futuro.
Ma mentre per l’Y2K le preoccupazioni erano più tangibili ed economicamente capibili quali il pagamento degli interessi sulle azioni, la sicurezza dei sistemi di difesa statali, la sicurezza dei voli o il corretto funzionamento delle centrali nucleari, per il cambiamento climatico i problemi sono più astratti o a più lunga scadenza e lontani dalla reale percezione.
Se si considerasse il problema del cambiamento climatico come fu considerato alla fine del XX secolo il Millenium Bug sarebbe forse più semplice affrontare risolvere il problema.
Il 2019 è ormai quasi finito ed il 2020 è alle porte, così è interessante tirare le somme di quest’anno online con tutti i suoi pregi e difetti.
Se, infatti, il Global Digital Report ci mostra una crescita di un 10% degli utenti internet online rispetto all’anno precedente (circa 400 milioni di utenti in più), soprattutto dai paesi emergenti e dall’Africa, la maggior parte di essi appaiono utenti principalmente social.
“We are Social” verrebbe quindi da dire ma attenzione perchè ci sono delle novità: Facebook ha visto solo una crescita di circa 8 milioni di nuovi utenti tra luglio e settembre 2019, mentre è in netta crescita l’uso di programmi di instant messaging (che vengono ormai equiparati a social network), dovuti all’uso di dispositivi mobili come principale mezzo per accedere al web. I dati mostrano una crescita del 51% di utilizzatori di smartphone, contro solamente un 44% di utenti che utilizzano il computer, mentre l’uso di tablet è sceso al 3,6% (un calo del 13%).
Malgrado il calo di visitatori Facebook rimane ancora il 3° sito web più visitato al mondo, subito dopo Google e Youtube, pur rimanendo la query di ricerca più richiesta sul motore di ricerca Google e mantiene ancora il primato come social network con il maggior numero di utenti attivi, seguito da Youtube e Watsapp.
Pur essendo leggermente superiore il numero di utenti di sesso maschile che utilizzano il social network di Zuckerberg le donne sembrano più attive avendo un maggior numero di commenti postati, link condivisi e Like assegnati ai post.
Rimanendo sempre in area solamente social network (non considerando i programmi di Istant messaging come tali) il secondo per utenti attivi risulta essere Instagram, sempre di proprietà di Zuckerberg, i cui utilizzatori hanno, per la maggior parte, meno di 30 anni, mentre Twitter mostra un lento ma continuo aumento di utilizzatori dovuto probabilmente al differente tipo di utilizzo e alla censura meno severa, così come Linkedin.
Abbiamo detto che vogliamo considerare i programmi di messaggistica istantanea separatamente dai social network e qua vediamo che a farla da padrone è sempre Facebook che con il suo Messenger ed il suo whatsapp ha il 90% del mercato, mentre i suoi “concorrenti” come Telegram o Viber sono quasi inesistenti o con un target geograficamente limitato, mentre resiste Wechat che in Cina è praticamente il padrone assoluto. Da segnalare che negli ultimi mesi dell’anno TikTok ha avuto un impenno diventando la terza app più scaricata (Whatsapp è solamente la 4°) e che, se confermato il trend, sarà un valido rivale per il 2020 ai programmi di Zuckemberg.
Interessante è anche il modo che hanno gli utenti di utilizzare il web; come abbiamo detto all’inizio di questo articolo la maggior parte degli utenti utilizza i dispositivi mobili e questa metodologia permette di utilizzare i comandi vocali più agevolmente che non su di un PC, così il 50% degli utilizzatori che hanno tra i 16 ed i 34 anni preferiscono usare il riconoscimento vocale per interagire con il web, mentre questa metodologia di utilizzo tende a scendere con l’aumentare dell’età attestandosi ad un 21% per utenti che vanno dai 55 ai 64 anni.
Per quanto riguarda i tempi di utilizzo del web sembra che (a livello mondiale) si passi in media 6 ore al giorno connessi tra App, Navigazione, Messaggistica e mail; per fortuna non tutto il tempo è passato sui social media (come alcuni servizi sui media tradizionali possono portare a pensare) e si va dai soli 36 minuti al giorno per gli utenti di internet in Giappone ad un massimo di 4 ore medie per gli utenti Filippini.
Infatti i dati di GlobalWebIndex mostrano che il 98% degli utenti internet che ha visitato un social network nell’ultimo mese solo l’83% è risultato un utente attivo e non solo fruitore passivo e che molti di loro utilizzano il social network anche per lavoro.
Fino ad ora abbiamo trattato di dati a livello globale, ma come ce la passiamo noi Italiani?
Per prima cosa diciamo che il 92% (54 milioni) degli abitanti del bel paese è connesso ad internet il che fa di noi uno dei paesi europei più digitalmente connessi. Quasi il 60% dei 54 milioni di utenti online è attivo sui social network e poco più della metà di questi accede ai social via dispositivo mobile (Smatphone).
Il tempo che noi passiamo online è anche quello sopra la media che infatti per noi Italiani arrivia a sei ore medie giornaliere mentre tra le query di riceca più utilizzate ci sono le parole Meteo, Facebook, Youtube, Google e Traduttore.
Il campione considerato va dai 16 ai 64 anni, e ci mostra un utilizzo online principalmente per la visione di video (92%), mentre l’utilizzo dei comandi vocali da noi si attesta ad un semplice 30%.
Dal report risulta poi i cittadini del bel paese amano chiacchierare, tanto che risulta l’uso principale del web per i programmi di messaggistica con whatsapp (84% di utilizzatori) che la fa da padrone, seguito da Facebook messenger (54%), mentre Youtube, con il suo 87% di utilizzatori, risulta il social network più seguito incalzato da Facebook (81%) e, a distanza, da Instagram con solo un 55%.
Ma cosa guardano gli Italiani su Youtube? Principalmente musica: tra le ricerche, infatti, la classifica vede in pole position le canzoni, seguite dai film e quindi dal gioco Fortnite.
Solamente 11% degli utilizzatori dei social, poi, dichiarano di utilizzarli anche per lavoro a dimostrazione che in Italia vengono utilizzati come canale panacea di svago.
Su di un piano puramente “sessista” vediamo che, mentre tra facebook e instagram la differenza di utenti di un sesso anzichè l’altro non è molto differente (su Facebook gli uomini superano leggermente le donne e su instagram l’inverso) su Twitter sono gli uomini a farla da padroni con un 68% di utilizzatori.
Nell’era del web 2.0 e della digital revolution sapere come ci comportiamo online, quali App si scaricano o Quali siti si visitano, nonché il metodo di utilizzo della tecnologia, rappresenta uno specchio della società né più né meno delle statistiche ISTAT che ogni anno ci vengono presentate come specchio della società. Queste analisi dei comportamenti dove la differenza tra vita reale e vita virtuale non rappresenta più due elementi separati ma un unico elemento della vita delle persone è una rappresentazione che riguarda tutti noi e non sono più solo uno strumento di statistica per creare marketing online utilizzato dagli operatori del settore.
Un’ultima cosa che appare (e che dovrebbe preoccuparci!) dal report sull’utilizzo del web nel 2019 è la centralizzazione che Facebook sta operando nel settore della messaggistica istantanea e che è quasi a livello di monopolio.
Riferimenti: https://datareportal.com/reports/digital-2019-q4-global-digital-statshot
A luglio 2019 Microsoft ha pubblicato un report che elenca le principali aziende che si occupano del tracking dei comportamenti dell’utente sui siti per adulti. Dalla ricerca emerge che Facebook, Google, Oracle e Cloudflare sono tra le aziende più attive in tale settore.
Non deve stupire questo, visto che questi siti utilizzano il tracking dei visitatori e dei naviganti per indirizzare gli advertisment sulle pagine web e per creare il loro introito. Dal report risulta che 93% dei siti analizzati utilizzano script che registrano le abitudini di navigazione degli utenti e, di questi dati, il 74% viene inviato a Google, il 24% ad Oracle, il 10% a Facebook ed il 7% a Cloudflare.
Ma la cosa che dovrebbe preoccupare chi naviga (non solo nei siti per adulti) è che solamente solo una piccola parte di questi cookies (meno del 20%) invierebbe i propri dati sfruttando algoritmi di crittografia e quindi in maniera sicura. Per rendere un’idea di quanto possano essere invasivi i cookies di tracciamento basta pensare che alcuni antivirus e anti-malware li considerano come elementi malevoli!
Sulla base di quanto sopra detto si potrebbe pensare che utilizzare un servizio di VPN oppure di Tor durante la navigazione permetta di risolvere i problemi di privacy e di mantenere l’anonimato ma non è proprio così.
Un recente un articolo che Sven Slootweg (uno stimato sviluppatore indipendente) ha pubblicato sul suo blog personale ha infatti scoperchiato un vaso di cui già i programmatori conoscevano il contenuto ossia che utilizzare una VPN non garantisce l’anonimato.
Spieghiamo subito, per chi non lo sappia, cos’è una VPN.
Se cerchiamo su wikipedia cosa sia una VPN la cosa che la maggior parte degli internauti capisce è che in italiano questo termine è la traduzione di rete privata virtuale ma del resto, probabilmente, capirebbe assai poco. Se si cerca su youtube o su internet si è portati a identificare le VPN con la navigazione anonima e con la possibilità di fare quello che si vuole online senza il pericolo di essere scoperti.
In realtà, come dice Slootweg la VPN non è altro che un server proxy glorificato dalla maggior parte degli utilizzatori di internet.
Quando un utente “naviga” su di un sito web si collega al proxy (un computer remoto) e gli invia le richieste, il proxy si collega al server ospitante il sito web e gli inoltra la richiesta dell’ utente; una volta ricevuta la risposta, il proxy la manda al client richiedente.
Solitamente l’utilità di un proxy consiste nel fatto che velocizza la navigazione in quanto i siti visitati recentemente da qualunque utente di quella rete, vengono memorizzati nel proxy che in questo modo evita di scaricarli nuovamente e possono essere ricevuti alla massima velocità permessa dalla propria connessione.
Tramite un Poxy è anche possibile, per i provider internet o per le autorità giudiziarie dei vari paesi, bloccare l’accesso a taluni siti web o applicazioni online.
In pratica un proxy non è altro che un ponte tra l’utente e il sito web interessato.
Visto che i proxy, nella maggior parte dei casi, sono gestiti direttamente dai provider di accesso internet questi memorizzano la navigazione di un utente associando il suo indirizzo ip ( indirizzo che viene assegnato ad una macchina quando si collega alla rete internet) e gli indirizzi che visita.
Una VPN lavora, in un certo senso, allo stesso modo: agisce come un tunnel tra due diverse reti quella dell’utente e quella che intende raggiungere (per questo le VPN sono spesso utilizzate nel darkweb, dato che permettono di raggiungere anche reti non raggiungibili dal normali canali), bypassando il fornitore di accesso ad internet di un utente.
Il problema che anche i server delle reti VPN memorizzano in un log la navigazione che viene fatta da un utente, se non altro per potersi eventualmente tutelare da eventuali azioni giudiziarie, ma non c’è nessuna certezza di quali utilizzi il gestore del server VPN faccia dei nostri log, se li vende ad agenzie di advertisment, o se utilizzi la connessione di un utente alla VPN per scopi non legali.
Ogni utente che utilizza una VPN è infatti collegato ai loro servizi tramite il proprio indirizzo IP e se qualcuno vuole intercettare la connessione basta che lo faccia un qualsiasi altro punto, come quando si collega o si scollega alla VPN.
Inoltre, sebbene la connessione ad una VPN sia criptata non sempre lo è il trasferimento di informazioni con un sito, come nel caso dell’invio di dati dai form, non tutti i siti web hanno la criptazione dei dati (vedere l’articolo https://www.filoweb.it/magazine/31-da-HTTP-a-HTTPS-).
Per finire per i moderni metodi di tracciamento l’indirizzo ip dell’utente sono meno rilevanti che nel passato e le grandi compagnie di marketing online utilizzano altre metriche per tracciare il profilo di chi utilizza un servizio e la sua identità.
A questo punto viene da chiedersi per quale motivo esistono le VPN se sono così poco sicure.
Bisogna prima di tutto considerare che le VPN sono nate per scopi aziendali, per dare modo ai dipendenti di accedere alle infrastrutture di un network privato da qualunque parte del mondo essi si trovino, la possibilità di essere utilizzate in ambito privato per dare l’idea di una navigazione anonima ha dato il via ad un business. La maggior parte dei servizi VPN disponibili sono a pagamento mentre quelli gratuiti sono pochi e consentono una limitata lista di utenti connessi contemporaneamente.
Si può scegliere di utilizzare una rete VPN nel caso ci si trovi ad utilizzare quella che viene definita connessione non sicura, come nel caso di aeroporti o stazioni o comunque connessioni wi-fi aperte, ma se il nostro intento è quello di navigare nel più completo anonimato allora rimane solo una sicurezza emotiva.
Quando Linus Torvald nel 1991 ideò un proprio sistema operativo per testare il suo nuovo computer a 32 bit non pensava certo che avrebbe creato una rivoluzione nel mondo dell’informatica e di rimanere, nel contempo, sconosciuto alla maggior parte delle persone comuni.
La prima volta che sentii parlare di linux avevo poco più di vent’anni ed era al corso di informatica di ingegneria dell’università di Padova; fino ad allora la mia conoscenza dei computer era quella che avevo maturato durante gli anni sui computer a 8 e 16 bit (Comodore, MSX, ecc) e sul mio PC 8088 con sistema operativo DOS che, con grande disappunto, scoprii di dover cambiare per poter installare ed utilizzare quel sistema operativo da casa anziché i computer dell’università.
Per chi volesse approfondire la genesi di questo sistema operativo consiglio il bellissimo libro di L. Torvald e D. Diamond “Rivoluzionario per caso. Come ho creato Linux (solo per divertirmi)”, mentre chi vuole sapere quale importanza ha avuto questo progetto nel mondo dell’informatica e come mai grandi nomi dell’informatica si stiano sempre più avvicinando al mondo dell’Open Source consiglio di proseguire con la lettura di questo articolo.
Visto che il nome completo di linux è GNU/Linux, per capire di cosa parleremo, bisogna prima di tutto chiarire il concetto di software libero e di cosa significa quell’ acronimo ricorsivo che precede il nome del sistema operativo.
Nel 1985 l’informatico Richard Stallman fondò un’ organizzazione senza fini di lucro per lo sviluppo e la distribuzione di software libero, in netto contrasto con il mercato dei software protetti che si stava sviluppando. L’idea di base era che un codice sorgente deve essere pubblico per poter essere modificato in base alle necessità di chi lo utilizza. In realtà l’idea di Stallman era già nata l’anno prima con il progetto GNU ("GNU's Not Unix") per creare un sistema operativo Unix like libero nell’utilizzo e libero di essere modificato a piacimento. Purtroppo l’idea di Stallman non riuscì per molti anni a realizzarsi in quando non era ancora stato sviluppato un Kernel1.
Nel 1991 un giovane studente di informatica dell’università di Helsinki passò l’estate chiuso in camera sua a creare un proprio sistema operativo per testare il suo nuovo computer basato su processore i368 e, una volta finito di elaborare il progetto, lo mise in rete (all’epoca la maggior parte degli utilizzatori di internet erano nerd, studenti, professori universitari, organizzazioni governative) per condividerlo chiedendo solamente che gli venisse mandata una cartolina da coloro che provavano e apprezzavano il suo lavoro; questo studente era Linus Torvald che in breve tempo si ritrovò la camera piena di cartoline da tutto il mondo!
Torvald decise di distribuire il suo sistema operativo sotto la licenza Open Source che è caratterizzata da quattro principali caratteristiche: libertà di eseguire il programma per qualsiasi scopo, libertà di studiare il programma e modificarlo, libertà di ridistribuire copie del programma, libertà di migliorare il programma e di distribuirne pubblicamente i miglioramenti. Da allora Linux si è sviluppato tramite molti collaboratori che vedendone il codice lo migliorano, lo implementano e lo ridistribuiscono, mentre il suo creatore mantiene solo il ruolo di coordinare e decidere quali migliorie possono essere implementate e ridistribuite.
La nascita di Linux coincide anche con due grandi momenti della storia dell’informatica: la grande distribuzione e disponibilità di computer presso gli utenti finali e la diffusione di Internet.
Molte aziende di software iniziarono a distribuire versioni personalizzate di Linux (per questo quando si parla di questo sistema operativo si parla di distribuzione mentre quando si parla di versione ci si riferisce alla sola versione del Kernel) facendo pagare solo il costo del supporto (nel caso venga distribuito su CD) e dell’assistenza.
Visto che linux è un sistema operativo Unix-Like ci si accorse subito di quanto era indicato allo sviluppo dei server e, avendo un prezzo pressoché nullo, ottenne un grande successo nei primi internet provider che offrivano accesso alla rete e che ospitavano i primi siti web che stavano nascendo, permettendo di abbattere i prezzi ai fruitori di tali servizi. Per fare un esempio consideriamo che senza Linux, oggi, non avremmo Facebook, Twitter e moltissimi social network che sono nati inizialmente su hosting linux visto il budget limitato dei loro creatori; allo stesso modo il sistema operativo Android (che equipaggia la maggior parte degli smartphone in circolazione) è stato sviluppato da Google sul kernel Linux 2.6 e 3.x ed è per la maggior parte (a parte alcuni firmware2 proprietari) un progetto open source coordinato da Google che prende il nome di “progetto Open Source Android”.
Negli ultimi vent’anni sono state sempre di più le aziende che hanno abbracciato più o meno completamente, il mondo dell’Open Source. Un esempio eclatante è quello della storica azienda americana IBM che ha iniziato ad avvicinarsi all’Open Source fin dal 2004 quando al Linux World Conference & Expo a San Francisco, Nick Donofrio, senior vice president of technology and manufacturing di IBM, ha fatto sapere che Big Blue “non ha nessuna intenzione di usare i brevetti in possesso per attaccare Linux”.
In quel tempo, infatti, IBM deteneva circa 60 brevetti che si supponeva Linux potesse infrangere. La speranza di Donofrio, all’epoca, era anche che altre aziende seguissero l’esempio di IBM, poiché prevedeva una notevole diffusione del movimento open source nella decade successiva. Nel 2013 Big Blue sancisce la nascita della OpenPOWER Foundation, una comunità tecnica aperta, basata sull’architettura Power di IBM, il cui obiettivo è creare un ecosistema open, disposto a condividere competenze, investimenti e proprietà intellettuale di classe server, per facilitare l’innovazione a livello hardware e software e semplificare la progettazione dei sistemi.
L’open source è stato anche alla base di uno dei progetti informatici sociali più rivoluzionari a livello mondiale: “One Laptop Per Child” (http://one.laptop.org/) ideato da Nicolas Negroponte.
OLPC è un'organizzazione no-profit che si prefigge come scopo aiutare i bambini più poveri del mondo attraverso l'istruzione e, per raggiungere questo l'obiettivo, l’intenzione è di fornire ad ogni bambino un laptop robusto, a basso consumo, connesso ad internet ad un prezzo di solo 100$ (in realtà la prima fornitura di computer nel 2007 ebbe un costo di 130$ al pezzo). È chiaro che senza un sistema che sta alla base open source non sarebbe mai stato possibile riuscire in questo intento e molti altri progetti open source (come wikipedia) hanno offerto la loro collaborazione al progetto. Malgrado l’idea però il progetto non riuscì mai ad emergere completamente in quanto l’avvento degli smartphone economici (che utilizzano sempre sistemi operativi open source) fa sembrare inutile la creazione di un computer con quelle caratteristiche.
L’ultimo annuncio importante nel mondo dell’open source viene dall’azienda cinese Huawei che, dopo le dichiarazioni del presidente USA Trump su eventuali embarghi americani, ha iniziato la prima distribuzione di personal computer laptop con sistema operativo Linux anziché windows (con un risparmio notevole per l’utente finale che non deve pagare la licenza) e che, nel contempo, sta sviluppando un suo sistema operativo per i suoi smartphone, sempre basato sul kernel di Linux e sempre Open Source.
Visto che sempre più app e servizi si stanno spostando all'interno del mondo delle web app questa potrebbe essere una buona occasione per favorire la diffusione di sistemi operativi alternativi a Windows?
D’altronde sono sempre più le aziende, pubbliche o private, che stanno passando al software libero: nel giugno del 2019 il CERN (lì dove è nato il World Wide Web!) ha avviato un ambizioso piano di trasformazione del suo reparto IT per sganciarsi dalle insostenibili richieste economiche del software a codice chiuso fornito da Microsoft (che non fornirà più le licenze accademiche al centro ricerche) e passare a software Open Source, così come ha già fatto il governo sud coreano e così come stanno facendo molte pubbliche amministrazioni che sono, inoltre, obbligate a rilasciare in formato open source il software che loro stesse sviluppano.
La stessa Microsoft, che per anni si è battuta per le licenze software chiuse, d’altronde, ha iniziato un lento avvicinamento al mondo dell’open source entrando nella Linux Foundation con un esborso annuo di 500 mila dollari che le permette di sedere nel consiglio d’amministrazione della fondazione.
Alla fine degli anni ’90 del secolo scorso Microsoft e Linux erano visti come due mondi opposti ed erano considerate dai loro utilizzatori scelte di vita piuttosto che semplici opzioni informatiche, tanto che nel 2001 l’allora CEO di Microsoft Steve Ballmer definì Linux come un “cancro”, mentre oggi, con l’entrata di Microsoft nella Linux Foundation, Scott Guthrie (Vice President di Microsoft Cloud ed Enterprise Executive) commenta: “Linux Foundation è la casa non solo di Linux, ma anche dei progetti più innovativi della comunità open-source. Siamo entusiasti di aderire alla Linux Foundation”.
Così anche Microsoft, insieme a grandi aziende come Cisco, Fujitsu, HPE, Huawei, IBM, Intel, NEC, Oracle, Qualcomm, Samsung, Google e Facebook entra a far parte del mondo Open Source anche se questo non vuol dire che Windows e Office saranno distribuite gratuitamente.
L’avvicinamento di Microsoft al mondo Open è stato graduale e continuo, seppur lento. Per fare un esempio il 40% delle macchine virtuali su Azure (il cloud Microsoft per lo sviluppo) sono basate su Linux, mentre Windows 10 versione per sviluppatori contiene strumenti software open source che provengono sempre dal mondo Linux: dalla Bash (la classica shell o prompt dei comandi), agli strumenti di sviluppo che possono essere integrati dentro Windows 10 accanto ai classici di Microsoft come PowerShell, Chakra Core e Visual Studio Code. Da qualche tempo, inoltre, Microsoft ha stretto una partnership con Canonical per portare Ubuntu (una delle più famose distribuzioni Linux) su Windows 10.
Nel giugno del 2018 Microsoft ha acquistato il principale social network per gli sviluppatori, github.com, ad un prezzo di 7,5 miliardi di dollari quando nel 2016 il servizio ha incassato solamente 98 milioni di dollari in nove mesi, a fronte di una valutazione del 2015 che vedeva GitHub quotato due miliardi di dollari. Perché allora Microsoft ha pagato così tanto questa piattaforma che sviluppa essenzialmente progetti Open Source?
Su questa piattaforma sono attualmente ospitati 80milioni di progetti software ed è utilizzata da 27 milioni di utenti, per la maggior parte sviluppatori. Se si considera che negli ultimi dieci anni non è emersa nessuna infrastruttura software a livello di piattaforma dominante in forma chiusa o proprietaria, ma tutte sono nate da idee e progetti open source (come ad esempio MongoDB) e che moltissime app si basano su piattaforme open source, è facile immaginare che la scelta di Microsoft sia soprattutto quella di invogliare gli sviluppatori ad utilizzare le sue piattaforme (come Azzure) piuttosto che voler vendere più software. Ecco quindi che alcuni programmi per lo sviluppo, come Visual Studio, sono messi a disposizione da Microsoft nella versione base libera di essere scaricata ed installata, mentre per le versioni superiori si continua a dover pagare la licenza; Visual Studio Code viene distribuito con licenza permissiva e alcuni dei componenti core di .NET vengono rilasciati addirittura con licenza open source.
È facile supporre che, dopo aver perso la sfida nel mondo degli smartphone, Microsoft non intenda ripetere la stessa esperienza nel mondo dello sviluppo dei software ed abbia intenzione di avviare quel processo che IBM ed altre aziende hanno già iniziato: dal 2016, infatti, il software open source è alla base dei quattro pilastri – mobility, cloud, social business e big data3 – della trasformazione digitale in atto.
1 Il kernel è il componente centrale di ogni sistema operativo che ha il compito di fare da ponte tra le componenti hardware di un computer – come processore, RAM, hard disk, ecc. – e i programmi in esecuzione sulla macchina.
2 Il firmware non è altro che un particolare tipo di programma, normalmente memorizzato su una piccola memoria non volatile (quindi una rom) , posto all’interno di un computer, di uno smartphone, di un tablet, di un masterizzatore, di una smart TV e in quasi tutti i dispositivi elettronici, con il compito di far correttamente avviare il dispositivo e di far dialogare l’hardware con il software.
3 Con il termine Big Data si intende la capacità di usare la grande quantità di dati che vengono acquisiti (solitamente online attraverso i social network, la navigazione, lo scarico di file, ecc.) per elaborare, analizzare e trovare riscontri oggettivi su diverse tematiche.
"Video killed the radio star" cantavano nel 1979 i "The Buggles", riferendosi al fatto che la televisione stava soppiantando gli altri media, in particolare la radio. Naturalmente, all'epoca, Trevor Horn e Geoffrey Downes non si immaginavano che anche la televisione sarebbe stata soppiantata da un nuovo media che ha rivoluzionato il concetto stesso di comunicazione: i social network!
Nel 2018 i servizi web più utilizzati sono stati: Google, Youtube, Facebook, Whatsapp, Messenger ed instagram. Questo vuol dire che due società (google e facebook) veicolano la maggior parte del traffico internet.
Se guardiano statistiche delle 50 aziende più grandi del mondo per capitalizzazione di borsa vediamo che Alphabet (l'holding che comprende Google, Youtube ed altre controllate) e Facebook (a cui appartengono, oltre che all'omonimo social anche, i servizi Whatsapp, Messenger ed il social instagram) sono tra le prime 10; la domanda è: "cosa producono Google, Youtube, Facebook, Messanger, whathaspp ed instagram?"
Tralasciando che nella holding Alphabet fanno parte anche altre società che si occupano di ricerca e sviluppo, tra le quali il sistema operativo Android, la risposta per i singoli servizi citati è: pubblicità!
I ricavi dei maggiori servizi di internet sono dati dalla pubblicità, quindi dal numero di utenti che riescono a raggiungere.
Fin qua non ci sarebbe nulla di preoccupante (la pubblicità è sempre esistita tanto che si trovano addirittura tracce di reclame anche su alcune mura dell'antica pompei) se non fosse che una ricerca del novembre 2016, firmata dalla Graduate School of Education dell'università di Stanford, in California (https://purl.stanford.edu/fv751yt5934), ha dimostrato che i giovani, in particolare i millenials, che dovrebbero essere tra le generazioni digitalmente più smaliziate non sanno distinguere un contenuto comune da una pubblicità anche se vi è indicata la scritta "adv" o "Contenuto sponsorizzato", a meno che non sia presente il marchio di un brand conosciuto o un prezzo; sempre secondo questa ricerca credono che il primo risultato trovato con google sia il più autorevole ed il più affidabile ( mentre spesso è un contenuto sponsorizzato!), si lasciano attrarre dalle immagini.
In Italia oltre il 90% degli studenti tra i 15 ed i 24 anni sta online, ma di questi il 35% dichiara di avere competenze digitali di base, mentre il 33% di averle basse, il che vuol dire non che non sanno programmare ma che il 35% non sa nemmeno districarsi al di fuori delle procedure abituali.
Tornando per un momento ai social vediamo che facebook, nel mondo, ha circa 2 miliardi di utenti, dei quali il 66% usa il social network tutti i giorni, segue Youtube con 1,5 miliardi, seguono Whatsapp e messanger con poco più di un miliardo di utenti mensili e in fine instagram con circa 700 milioni.
Il 51% degli utenti di internet usa i social network per raggiungere le notizie, per lo più tramite cellulare; tra i giovani tra i 18 ed i 24 anni la rete è lo strumento preferito per accedere alle notizie, mentre la televisione viene al secondo posto (Reuters Institute, University of Oxford: http://www.digitalnewsreport.org/interactive/).
Vediamo quindi che, da un lato, ci sono tra gli utenti quindi due grandi referenti per lo stare in rete e cercare notizie e sono Facebook e Google, due società che hanno i loro guadagni dalla pubblicità e dal maggior numero di utenti che riescono a raggiungere, mentre dall'altro abbiamo i ragazzi (e non) che, se difficilmente riescono a distinguere un contenuto sponsorizzato da un post, di certo faranno ancora più fatica a distinguere una notizia vera da una falsa.
I social network non hanno nessun interesse a verificare e controllare la qualità dell'informazione che viene veicolata. Nel settembre 2017, rispondendo alle accuse di Trump, secondo il quale il social network Facebook gli era contrario, Zuckemberg risponse :" Internet è il modo primario in cui i candidati hanno comunicato, dalle pagine facebook con migliaia di folowers, centinaia di milioni sono stati spesi per la pubblicità… I nostri dati dimostrano il nostro grande impatto sulla comunicazione"; quasi che il solo fatto che Facebook abbia un grande impatto sulla comunicazione ne giustifichi non solo l'esistenza ma anche il fatto che sai libero di fare quello che vuole.
"Da un grande potere derivano grandi responsabilità", questo si leggeva nella vignetta conclusiva di Spider-Man su Amazing Fantasy n.°15, e questo è quello che dovrebbe essere.
Purtroppo non sembra essere così con i social media: malgrado le assicurazioni che sono state fatte negli anni per arginare il problema poco è stato realmente fatto, e in un mercato dove la concorrenza è praticamente inesistente e non vi sono regole i social network possono fare quello che vogliono e, visto che sono società per azioni, il loro scopo è fare soldi.
Non è facile creare delle regole per poter gestire le informazioni in rete senza rischiare di limitare la libertà di informazione come, ad esempio, avviene in Cina dove molti siti e social sono costretti a sottostare alla censura dello stato o a non essere visibili. Bisogna costringere i gestori dei social media ad autogestirsi, verificare e controllare quello che viene pubblicato, pena il ricorso a delle sanzioni.
Una cosa simile è stata fatta per quando riguarda la pubblicazione di contenuti coperti da copyright, dove il gestore di un social è tenuto a controllare ed eventualmente cancellare il contenuto pubblicato quando questo violi un copyright.
Perché non è possibile allora farlo anche per tutti i post?
Durante le elezioni presidenziali americane del 2016 centinai di siti diffondono quelle che vengono definite Fakenews che favoriscono l'elezione di Trump. La maggior parte di questi siti si trovavano in macedonia e non avevano nessun interesse al che vincesse un candidato anziché un altro ma, tramite google AdSense ( il sistema di google che permette di inserire spazi pubblicitari all'interno del proprio sito), sono arrivati a guadagnare fino a 5000 euro al mese!
Inutile dire che il colosso di Mountain View non controlla dove la sua pubblicità compare ma solo che compaia; dei proventi della pubblicità una piccola parte va al gestore del sito, una grande parte a Google.
Il gestore del sito ha quindi grande interesse che vi sia un gran numero di visitatori, maggiore è il numero di visitatore, maggiore la pubblicità che compare, maggiori i suoi introiti, così come per Google.
In Italia il sito di Buzzfeed nel 2016 ha pubblicato un'inchiesta giornalistica sulla disinformazione prodotta in Italia dal Movimento 5 Stelle e sui legami del partito di Beppe Grillo con diversi siti di news (https://www.buzzfeed.com/albertonardelli/italys-most-popular-political-party-is-leading-europe-in-fak?utm_term=.uhv695Bmk#.qkGP7kZry) , il risultato di questo tipo di informazione, insieme all'uso intensivo che i candidati hanno fatto di Facebook durante la campagna elettorale, come strumento di propaganda, ha influenzato le elezioni politiche del 2018.
Così come uno stato ha l'obbligo di tutelare la salute dei suoi cittadini, così anche nel settore della comunicazione online, in mancanza di una vera concorrenza nel settore che autoregoli la qualità dell'informazione come succede nell'editoria, nella radio e nella televisione, è lo stato, o meglio gli stati, che dovrebbero creare regole che, pur rispettando i dettami delle singole costituzioni, atte a tutelare i propri cittadini.
Anche le aziende, dal canto loro, dovrebbero iniziare a sensibilizzarsi su questo fenomeno così come gli utenti. Abbiamo iniziato a valorizzare i prodotti che vengono fatti senza sfruttare la manodopera nei paese in via di sviluppo, penalizzare le aziende che sfruttano i bambini per la confezione dei vestiti o delle tecnologie, perché non possiamo iniziare a segnalare quelle aziende che fanno comparire la loro pubblicità online sui siti che non lo meritano?
La soluzione, per poter arginare l'anarchia informativa che regna online passa quindi da due strade (visto che in tanti anni le aziende interessate non hanno fatto nulla per risolvere il problema): sanzioni da parte delle autorità direttamente proporzionale al numero di utenti che raggiunge un social network direttamente o indirettamente, e creazione di una coscienza sociale come per i prodotti ecosostenibili, ad impatto zero o che non sfruttano le popolazioni locali, magari con un certificato di qualità.
Il pensiero computazionale è un processo mentale per la risoluzione di problemi che permette di operare a diversi livelli di astrazione del pensiero. Il miglior modo per sviluppare il pensiero computazionale, ad oggi, è tramite il coding. Il termine coding, in italiano, si traduce con la parola programmazione, ma questa traduzione letterale limita molto quello che è il concetto già di per sé molto astratto della parola stessa e l’uso che ne viene fatto.
Abbiamo iniziato affermando che il coding è il miglio modo per sviluppare il pensiero computazionale. Vediamo di approfondire la spiegazione di cosa sia il pensiero computazionale, prendendo spunto da un articolo di Jeannette Wing ( professoressa di “Computer Science” alla Columbia University) del 2006:
“Computational thinking is a fundamental skill for everyone, not just for computer scientists. To reading, writing, and arithmetic, we should add computational thinking to every child’s analytical ability.
...
Computational thinking involves solving problems, designing systems, and understanding human behavior, by drawing on the concepts fundamental to computer science. Computational thinking includes a range of mental tools that reflect the breadth of the field of computer science.” (http://www.cs.cmu.edu/~15110-s13/Wing06-ct.pdf)
Come afferma la professoressa il pensiero computazionale è un metodo di pensare che si può applicare poi nella vita di tutti i giorni e nei rapporti con le altre persone, non è quindi solo un metodo per “imparare a programmare” come affermano i meno informati.
Il coding permette di mettere insieme diverse necessità delle varie discipline scolastiche: come in grammatica bisogna seguire correttamente una sintassi e delle regole, come in matematica è importante impostare la procedura risolutiva di un problema, sempre come in matematica ed in musica bisogna saper leggere e scrivere usando linguaggi simbolici e, come quando si scrive un testo di italiano, è necessario scrivere un testo corretto, comprensibile ed espressivo.
Agli inizi degli anni ’60 il professor Seymour Papert del mit ideò quello circa venti anni dopo sarebbe diventato uno dei principali strumenti per insegnare il coding ai bambini: il LOGO.
Inizialmente il LOGO serviva per muovere un robot con dei semplici comandi avandi 10, destra 90, ecc. , fino a quando negli anni ’80 con l’avvento dei monitor e dei computer a basso costo venne sviluppata una versione visuale che letteralmente disegnava sullo schermo quello che in precedenza un robot faceva.
Sempre negli stessi anni iniziarono ad uscire in commercio giochi che si programmavano allo stesso modo e che ancora adesso vengono prodotti.
La semplicità del linguaggio ed il fatto che le principali azioni consistevano del disegnare su di uno schermo portarono il LOGO a diventare il linguaggio principale per spiegare ai bambini i concetti geometrici (cerchio, quadrato, triangolo, ecc) e permise a molti bambini di avvicinarsi ai rudimenti della programmazione sotto forma di gioco.
Purtroppo per molti anni, in Italia ed in molti altri paese, l’idea di insegnare il coding a scuola rimase relegato ai licei sperimentali o agli istituti tecnici con indirizzo specifico, fino a quando ,nel 2014 con la riforma della buona scuola venne introdotto il pensiero computazionale nelle scuole.
Pensiero computazionale, è uno strumento universale: pensare in modo computazionale significa suddividere il processo decisionale in singoli step e ragionare passo dopo passo sul modo migliore per ottenere un obiettivo. Una comportamento che in realtà mettiamo in atto tutti i giorni spesso in maniera inconscia.
L’esempio più significativo di utilizzo del pensiero computazionale lo troviamo nel film “Apollo 13” nella scena dove un think thank di ingegneri si deve inventarsi un filtro per l’ossigeno partendo da pochi materiali disponibili.
Come abbiamo detto all’inizio il pensiero computazionale è un modo di pensare a diversi livelli di astrazione per raggiungere un obbiettivo, il fatto che il Coding sia il metodo più diretto per sviluppare questo modo di pensare porta alla conseguenza che avremo delle persone più consapevoli non solo del mondo che le circonda ma anche di come interagire con esso visto che sono in grado di padroneggiarne le basi: non saranno più dei semplici fruitori della tecnologia ma ne saranno i veri padroni.
“Intellectually challenging and engaging scientific problems remain to be understood and solved. The problem domain and solution domain are limited only by our own curiosity and creativity" (Jeannette Wing)
Un'altra battaglia è stata vinta dai pigri e gli incapaci: i video verticali.
Per lungo tempo si è combattuta una battaglia per dire "No ai video verticali" ma da quando applicazioni per smartphone come Periscope, Snapchat e Meerkat hanno iniziato ad incentivarne, i pigri e gli ignoranti nelle basi delle riprese video si sono sentiti in diritto di stravolgere ogni buon senso (Periscope non dà nemmeno l'opzione per fare riprese orizzontali).
Anche un colosso come Youtube alla fine si è dovuto adattare alla pigrizia di chi non vuole ruotare lo smartphone e a giugno ha iniziato a contrastare le fastidiosissime bande laterali che accompagnano i video verticali con un aggiornamento che adatta i video verticali all'interfaccia: quando un filmato in verticale viene riprodotto non a schermo intero, YouTube ne mostra solo una parte, adattandolo al player e soluzioni analoghe stanno adottando Google e Viemo, dopo aver fatto una grossa comunicazione cercando di far capire agli utenti che i video verticali non sono "comodi" per il web e sopratutto per la classica visualizzazione a schermo, di computer o televisore.
Il solo fatto che si possa girare un video in verticale non vuol dire che si debba farlo. Il problema dei video verticali si presenta quando li guardi su uno schermo diverso da quello degli smartphone: a differenza di una fotografia (che la si può girare) un video non lo si può girare di 90° e quindi sono costretto a mostrare o delle bande nere oppure delle bande sfumate che non sono esteticamente belle. I televisori, i Cinema e anche gli occhi umani sono strutturati per vedere le immagini in larghezza più che in altezza. La maggior parte degli schermi tv o monitor sono addirittura 16:9 ormai e non più 4:3.
Chi si ricorda quanto era brutto in passato vedere un film girato in cinemascope (rapporto 2.35:1) su di un televisore 4/3? Adesso sta succedendo una cosa analoga con i video verticali, quando si cerca di proiettarli su un monitor o un TV normale l'immagine non è adatta!
Evidentemente chi gira questo tipo di video spera che un domani vi saranno televisori o monitor con lo schermo verticale o che si girano (già esistenti sul mercato) ma pensate a quando sia scomodo e soprattutto non ergonomicamente adatto alla morfologia umana… forse con l'ingegneria genetica, secondo queste persone, dovremmo anche rinunciare alla visione binoculare? Il campo visivo umano ha un'ampiezza orizzontale di circa 200° ed un'ampiezza verticale di poco più di 100°, quindi un aspect ratio che va da 1,78:1 (16:9) a 2,33:1 (21:9), è quello che più si adattano alla nostra visione.
Da un punto di vista tecnico, inoltre, un video verticale perde molte "informazioni", ovvero quello che succede intorno al soggetto creando molta "Aria" sopra e sotto, lasciando vedere solo un piccolissimo spicchio della realtà. Le informazioni registrate in verticale rimangono piccole rispetto al formato, dando una visone piccola della realtà.
Per chi obbietta che "le dirette FB sono solo in verticale" la risposta è semplice: le dirette devono lasciare spazio ai commenti quindi, in realtà, in questo caso la visualizzazione in verticale permette di avere una buona visualizzazione dello schermo, lasciando la parte sotto per i commenti, quindi una questione di impaginazione più che di corretta ripresa.
È vero che è più comodo tenere il telefono in verticale che non in orizzontale (soprattutto per abitudine), e per una ripresa fatta al volo, dove si estrae il telefono e si riprende ha senso; siamo abituati ad usare il telefono in maniera verticale, ma per i video di lunga durata, dove si riprende magari una manifestazione o un evento o anche solamente la recita del figlio, dove cioè la ripresa non è immediata il video verticale non ha motivo di essere.
Purtroppo è vero che con l'aumento delle persone che guardano tutto tramite smartphone il futuro dei video sarà sempre più verticale, ma questo non vuol dire che sia una buona norma o regola da seguire. Cosa succederà il giorno che si tornerà ad usare dispositivi con schermi "normali"? Ma soprattutto ricordate che fare un video verticale non vuol dire fare un buon video. In inglese hanno coniato una terminologia "Sindrome da video verticale" e, con un video semiserio, si dà una spiegazione molto simpatica del fenomeno ( https://www.youtube.com/watch?v=Ko5fFuAZ39o) che invito tutti a guardare.
Concludendo, se anche tu sei stanco di andare sui social o su internet e vedere dei video dove la porzione di inquadratura è minuscola e dove non si vede niente dì NO AI VIDEO VERTICALI
I chatbot sono programmi che simulano la conversazione tra una macchina ed un essere umano. Sono spesso utilizzati per il test di Touring (vedi E' stato superato il test di touring?) ma anche per interfacciarsi con gli utenti come nel caso di Siri o Cortana.
La storia dei chatbot ha origine nel 1966 quando Joseph Weizenbaum scrive Eliza, un programma che simula un terapeuta Rogersiano rispondendo al paziente con domande ottenute dalla riformulazione delle affermazioni del paziente stesso. Se ad esempio l'utente scriveva: "Mi fa male la testa" Eliza rispondeva "Perché dici che ti fa male la testa?" e così per un numero invinito di volte.
Per chi fosse interessato a questo programma oggi una versione di ELIZA incorporata come easter egg nell'editor Emacs o si trovano diversi sorgenti anche su internet che ne spiegano il funzionamento.
Oggi i chatbot trovano applicazione pratica in diversi campi: oltre che come assistenti virtuali (siri e Cortana) sono usati per il customer care aziendale (Royal Bank of Scotland in partnership con IBM), per guidare l'acquisto online e alla fruizione dei contenuti (-800-Flowers.com che pare sia stata la prima azienda in assoluto a usarne uno), per aiutare l'utente (i nuovi chatbot di Skype), oppure i chatbot che sta sviluppando Facebook che hanno come scopo lo sviluppo di un software in grado di negoziare con altri bot oppure con le persone, "per raggiungere una decisione o un fine comune".
Alcuni giornali, poco informati o alla ricerca di visibilità hanno pubblicato a fine luglio titoloni allarmistici riguardo due chatbot che sarebbero stati disattivati dopo che hanno creato una loro lingua per dialogare, richiamando alla mente il famigerato skynet di Terminator o il Master Control Program di Tron.
Nulla di più sbagliato!
Appurato che i chatbot sono programmi che simulano l'IA, i due chatbot di Facebook Bob e Alice hanno dimostrato tutto il loro potenziale sviluppando un linguaggio senza bisogno di nessun input umano.
Queste chatbot (dialog agents) sono state lasciate libere di conversare nel tentativo di rafforzare le proprie abilità comunicative e, a poco a poco, hanno modificando l'inglese fino a creare qualcosa di nuovo.
I ricercatori di Facebook a questo punto hanno spento le macchine non perché si sono spaventati, ma perché si sono accorti di non aver dato loro le giuste regole, ovvero hanno "detto" ai due chatbot i comportamenti da adottare e gli obiettivi da raggiungere, ma non quale lingua usare.
I chatbot avrebbero dovuto imparare dialogando con gli esseri umani, ma avendo entrambi un interlocutore virtuale sono andati avanti imparando l'uno/a dall'altro/a dalla precedente converssazione sviluppando un loro linguaggio. Il motivo per cui è stato interrotto l'esperimento è che i due chatbot parlavano tra di loro ma nessuno capiva cosa divevano, forse nemmeno loro.
Ecco la conversazione tra i due:
Bob: i can i i everything else . . . . . . . . . . . . . .
Alice: balls have zero to me to me to me to me to me to me to me to me to
Bob: you i everything else . . . . . . . . . . . . . .
Alice: balls have a ball to me to me to me to me to me to me to me
Bob: i i can i i i everything else . . . . . . . . . . . . . .
Alice: balls have a ball to me to me to me to me to me to me to me
Bob: i . . . . . . . . . . . . . . . . . . .
Alice: balls have zero to me to me to me to me to me to me to me to me to
Bob: you i i i i i everything else . . . . . . . . . . . . . .
Alice: balls have 0 to me to me to me to me to me to me to me to me to
Bob: you i i i everything else . . . . . . . . . . . . . .
Alice: balls have zero to me to me to me to me to me to me to me to me to
Dhruv Batra, professore alla Georgia Tech e ricercatore al Facebook Ai Research (Fair), responsabile dell'esperimento, scrive nella sua pagina di Facebook che quella di alcuni media è stata "Una copertura irresponsabile e basata sull'inseguire facili click".
L'abilità comunicativa, infatti, non è l'unica prerogativa affinchè l'intelligenza artificiale diventi davvero funzionale, è necessario che si avvicini il più possibile a quella umana.
Sul web e sui media è andato in onda uno "scontro" tra scienza e fantascienza e tra ricercatori e giornalisti… dove sembrano aver vinto questi ultimi.
Cos'è un PING in informatica? Semplificando diciamo che un PING è un comando che invia un piccolissimo pacchetto dati ad un computer per testarne la raggiungibilità in una rete.
Nel 1986, in un Italia dove l'auto più venduta era la Fiat Uno, si andava in giro con scarpe pesantissime e "giubbotti" rigonfi, dove le giacche avevano le spalle rialzate, si guardava "Drive in" la domenica sera ed il massimo della tecnologia indossabile era un Walkman, per la prima volta fu instaurato un collegamento internet attraverso la rete satellitare atlantica SATNET con una linea da 28kbs.
Un semplice PING e l'Italia era entrata ufficialmente in ARPANET e di conseguenza nell'era di Internet.
Bisognerà però aspettare ancora più un anno (23 dicembre 1987), prima che vengano creati i domini nazioni, ".it" ( la cui gestione fu affidata al Cnuce ), affinché l'Italia entri completamente nel mondo del web con il primo dominio italiano: cnuce.cnr.it.
In un primo momento la crescita di internet in Italia fu lenta soprattutto per motivi tecnici. Le connessioni erano fatte tramite modem analogico e le velocità raramente superavano i 36Kbs: la maggior parte dei modem erano a 1200bps in ricezione e 75bps in trasmissione, il che per le reti fidonet e le BBS erano più che accettabili.
Anche l'arrivo dei modem 56Kbs non migliorarono di molto le cose, dato che oltre al costo di un abbonamento internet (intorno alle 150.000 lire annue) si doveva pagare la famigerata TUT, la tariffa urbana a tempo, tanto che i primi internauti domestici stavano con un occhio al monitor e con l'altro all'orologio.
Ma ormai la stalla era aperta e i buoi stavano uscendo.
Nel 1990 Tim Berners-Lee presso il CERN inventa un sistema per la condivisione di informazioni in ipertesto noto come World Wide Web. Insieme a Robert Cailliau, Lee mise a punto il protocollo HTTP e una prima specifica del linguaggio HTML.
Nel 1993 esce Mosaic, il primo programma a fornire uno strumento leggero di navigazione (il primo Browser per usare un termine attuale). Da quel momento non erano più solo caratteri quello che veniva ricevuto sui terminali collegati alla "Rete" ma anche immagini impaginate come in un libro e testo.
Nel 1994 nasce Video On Line che, grazie ad una sapiente campagna di marketing tramite vari periodici, tra cui Panorama, Topolino, Il Sole 24 Ore, offriva l'accesso gratuito ad internet per alcuni mesi e nel 1995 raggiunse il 30% degli utenti italiani (circa 15.000).
Da lì in poi la storia di Internet si è evoluta velocemente; alcuni progetti sono nati e scomparsi, altri sono rimasti, altri ancora si sono evoluti …
È proprio il 1995 che segna l'inizio della mia "love story" con il mondo di Internet.
In quell'anno stavo finendo il servizio militare, ma anche in quel periodo non avevo mai rinunciato a comperare riviste di informatica. Su una di queste ( non ricordo il nome) trovai per l'appunto il disco di VOL ed alla prima licenza mi fiondai davanti al computer e feci il primo collegamento tramite il mio modem a 1200bps…
… La lentezza della connessione nell'aprire la prima pagina mi lasciò leggermente deluso, abituato alle BBS dove i dati trasmessi erano solo testo e quindi la velocità del modem adeguata.
Dovetti aspettare qualche mese, dopo essermi congedato e comprai il mio modem a 36kbs con un abbonamento ad un provider locale e le cose migliorarono notevolmente.
Iniziai a studiare l'HTML e ad affascinarmi a quel linguaggio di script che permetteva di impaginare i documenti per il web.
Ma fu solo nel 2000 che veramente iniziai a lavorare in quel settore, grazie all'incontro con il Professor Pelanda.
Avevo avuto modo di conoscere il professore come mio cliente nel negozio di computer che gestivo con altri due soci e un giorno, dopo un mio intervento tecnico mi chiese se ne sapessi qualcosa di come si fanno siti web. In sincerità gli risposi che sapevo come farne uno ma non avevo mai provato realmente a farne.
Mi diede appuntamento la domenica pomeriggio per discutere.
Ricordo che stetti per quasi 40 minuti sotto il suo ufficio prima di suonare il campanello tanta era l'emozione e la paura. Dentro di me sapevo che questo avrebbe rappresentato un cambiamento nella mia vita ma non mi rendevo conto di quale potesse essere.
Il mio primo sito internet fu proprio quello del professore (www.carlopelanda.com) che negli anni ha seguito l'evoluzione del web design, a volte anche anticipando le tendenze.
La prima versione era in HTML puro, con qualche GIF animata e ottimizzato per una risoluzione di 800 x 600 pixel. Grafica semplice e colori forti ( che ancora adesso si ritrovano in alcune sezioni).
Poi fu la volta della tecnologia FLASH che permetteva animazioni complesse leggere, quindi adatte alle connessioni del tempo ( la maggior parte degli utenti web usavano ancora modem a 56KBs, solo poche aziende avevano la linea ISDN e la Tariffa Urbana a Tempo era ancora attiva sulle linee telefoniche).
Attualmente si usano i CSS e l'HTML5, con java script.
Abbiamo abbandonato i fronzoli delle animazioni iniziali per dare più spazio ai contenuti e l'integrazione con i social network.
Sempre una maggior parte delle utenze internet utilizza anche dispositivi mobili, quindi la necessità è diventata quella di ottimizzare la visualizzazione su tablet e smartphone, così , come da una grafica ottimizzata per una risoluzione di 800x600 pixels siamo passati ad una di 1024x768, adesso passiamo ad una grafica fluida che si adatta a dispositivi mobili ed a schermi HD che arrivano anche 1600pixels.
Il web è come un essere vivente che si evolve. Un media che, a differenza della radio, della televisione o dei giornali, continua a crescere e cambiare.
Tornando al 1986 solo pochi scrittori di fantascienza ( tra i quali William Gibson esponente di spicco del filone cyberpunk. ) potevano immaginare quale futuro ci aspettava.
In questa rubrica ho parlato spesse volte di tecnologie web che nascono, fanno il loro exploit e poi spariscono, lasciando però una traccia indelebile ed una guida per il futuro.
È del futuro del web che adesso parlo.
Possiamo fare scenari ed ipotizzare come la nostra vita potrà cambiare, ma non possiamo esserne certi.
Con l'avvento delle connessioni ADSL e FLAT sempre più persone hanno accesso al web e di queste sempre più si esprimono tramite questo mezzo, influenzandone le tendenze.
Il fatto di essere un mezzo di comunicazione a due vie (ricevo informazioni ma ne mando anche) porterà internet ad essere una specie di coscienza collettiva di grande magazzino dove si attinge agli archetipi societari.
Nessuno poteva immaginare il successo dei Social Network come Facebook e Twitter e l'influenza che hanno avuto nella vita di tutti i giorni o il declino di siti come Second Life, che invece si prevedeva avrebbe raggiunto milioni di utenti attivi.
Il futuro è da scrivere e se gli anni '90 hanno rappresentato il momento di boom di internet, il XXI secolo rappresenterà la sua età matura.
Per finire, riporto le parole del Professor Pelanda all'inizio del nostro rapporto di collaborazione:
"… Dipinta questa, metterei accanto il viso di Filippo, giovante tecnico computer veronese. Si è offerto di costruire il sito (www.carlopelanda.com) dove tra poco sbatterò tutte le mie pubblicazioni e farò pubblicità alla mia attività (scenaristica). Stavo per firmare il contratto con un'azienda milanese che mi proponeva la realizzazione del sito (complesso e non solo una semplice videata web) ad un buon prezzo ed in pochi giorni. Ma ho assunto Filippo, che mi costa un po' di più e allunga di tre mesi i tempi perché non ha ancora un'esperienza di questi lavori, pur geniale tecnico. Sono rimasto affascinato dalla sua volontà di imparare questo mestiere e colpito dalla mancanza di risorse educative che glielo insegnassero, qui nella nostra zona. Abbiamo fatto un patto: impara lavorando ed io accetto il rischio. In cambio mi assisterà nella gestione futura del sito a costi inferiori a quelli di mercato. Ed il suo viso – simpaticissimo e concentrato, teso nello sforzo – possiamo metterlo tra l'immagine ansiosa detta sopra e lo scenario piacevole di sfondo futuro."
(L'Arena 20/04/2000)
L'uscita di Windows10 non è rappresenta solamente una nuova ed evoluta versione del precedente sistema ma anche una nuova strategia della casa di Redmond per rilanciarsi nel mercato dei dispositivi mobili dopo poco edificante esperienza degli anni passati.
Il fatto che il sistema operativo possa offrire la stessa esperienza di utilizzo sia sul computer, che sul tablet, che sul telefono sicuramente aiuta parecchio, ed anche il fatto che adesso le app possono essere le stesse aiuta parecchio l'utente a non sentirsi spaesato passando da un dispositivo ad un altro: Outlook, Calendario, Contatti, Office in versione touch, Foto. Ogni applicazione avrà la stessa interfaccia su PC, su laptop con schermo touch oppure su smartphone; Centro Notifiche è sincronizzato con quello PC ed anche il pacchetto office sarà lo stesso.
Una soluzione simile l'aveva, in vero, già intrapresa google, ma qua la cosa è diversa e più articolata.
Un'altra cosa che potrà aiutare la Microsoft a recuperare il terreno perduto è il fatto che il sistema operativo Windows10 non ha bisogno di grandi risorse (consiglio di leggere il mio precedente articolo su windows10) e questo permette di immettere sul mercato device e computer a prezzi più bassi.
Basta fare un giro su Amazon o nei grandi centri di distribuzione e ci si accorge che vi sono offerte per tablet che partono da 50,00 € con caratteristiche interessanti (Processore Atom Z3735G Quad-Core 1.83GHz Display multitouch da 7 pollici 1024x600pixel Memoria interna 16GB Wi-Fi 802.11b/g/n - Doppia fotocamera Sistema operativo Windows 10 Home) o portatili a partire da 190,00€.
Concludendo sembra che la Microsoft stia tentando di entrare in un mercato che è al momento è appannaggio di Google e Apple in maniera molto incisiva, se avrà successo solo il mercato stesso ce lo dirà ma non è esclusa che combinazione prezzo interessante ed usabilità potrò premiare la Microsoft come ha fatto Android con Google, forse a scapito proprio della casa di Mountain View, piuttosto che della casa di Cupertino che comunque è rappresenta un settore di mercato a parte.
Secondo una ricerca di "Bromium Labs" il browser Internet Explorer è quello che ha subito, nei primi 6 mesi del 2014, il maggior numero di attacchi informatici. A peggiorare la situazione vi è anche il fatto che Internet Explorer sia anche quello con il maggior numero di vulnerabilità.
Questo ha portato sia il governo Americano che quello Inglese a consigliare ai propri cittadini di considerare delle alternative al browser di casa Microsoft: secondo NetMarket Share, infatti, Internet explorer (dalla versione 6 alla 11) è il browser più usato.
La United States Computer Emergence Readiness Team (US-CERT), afferma che le vulnerabilità "could lead to the complete compromise of an affected system".
Il giornale inglese "The Telegraph" ha consultato diversi specialisti in sicurezza informatica provenienti da famose aziende specializzate ( Symantec, FireEye, Malwarebytes and AppSense ) e tutti sono dell'avviso che la soluzione migliore sia cambiare il browser.
Negli ultimi anni i programmatori di Redmond hanno lavorato parecchio sulla sicurezza del browser, tanto che molti hacker preferiscono concentrasi a sfruttare le falle di altre applicazioni (Java in primis, seguito da Flash).
Anche i programmatori di Oracle hanno lavorato parecchio tanto che Java VM nei primi sei mesi del 2014 java non ha subito attacchi "Zero Day" a differenza dell'anno precedende.
Vediamo adesso alcune alternative:
Tra le più considerate dagli utenti sono quelle di Firefox e Chrome. Entrambi i browser, che nell'anno precedente contenevano diverse vulnerabilità, nel 2014 hanno visto le vulnerabilità scendere vertiginosamente.
Altre alternative che possono essere prese in considerazione sono l'uso di Safari oppure Opera, a scapito però, di una certa perdita di compatibilità con alcuni siti web.
Rimane sempre il rischio di usare applicazioni, all'interno del browser, che usano Java o Flash.
E tornando a Java e Crhome ci tengo a sottolineare che entrambi detenevano il record di vulnerabilità del 2013, mentre quest'anno sembrano aver ridotto decisamente la cifra tanto che, ad oggi (luglio 2014), non sono stati segnalati attacchi pubblici mentre lo scorso anno erano stati undici. ''La nostra previsione - concludono gli esperti di Bromium - è che Explorer continuerà ad essere l'obiettivo preferito dagli hacker per tutto il resto dell'anno''.
Queste vulnerabilità di explorer sono particolarmente pericolose per gli utenti (ancora molti) che continuano ad usare Windows XP, in quanto la Microsoft ha terminato il supporto per tale sistema operativo.
La mia considerazione è che l'essere il principale produttore di sistemi operativi e del browser di maggior diffusione dovrebbe portare ad aver una maggior considerazione per i propri utenti/clienti senza abbandonarli od obbligarli a spendere centinaia di euro per aggiornare un sistema operativo per aver la sicurezza.
In ricordo di Alan Turing ucciso dall'ignoranza e dalla bigotteria
I propose to consider the question, “Can machines think?” This should begin with definitions of the meaning of the terms “machine” and “think”.
In questo modo, nel 1950 Alan Turing iniziava il suo saggio: “Comupting Machinary and Intelligence” sulla rivista Mind.
Da questo papper Turing sviluppo un procedimento di pensiero per determinare se una macchina fosse in grado di pensare: per Turing una macchina in grado di pensare è una macchina che sia capace di concatenare idee e quindi di esprimerle.
In questa sede tralasciamo la spiegazione del test ( chi fosse interessato può tranquillamente scaricare tutto il papper a questo indirizzo: http://orium.pw/paper/turingai.pdf )
Dal 1950 i parametri per il Test di Turing sono stati riformulati, sia perché originariamente troppo imprecisi, sia perché sono insorte nuove definizioni di macchina intelligente, come nel caso di ELIZA (1966), dove un software era in grado, tramite la riformulazione delle affermazioni di una persona, a porre delle domande che potevano indurre a pensare che l'interlocutore non fosse un computer ma un essere umano.
Sabato 6 giugno 2014 si è svolto presso la Royal Society una gara tra 5 programmi, con l'intento di superare il Test di Turing: i programmi dovevano rispondere, per interposta tastiera, a dei giudici umani, durante sessioni di discussione di cinque minuti. Al termine di questi scambi, stava ai giudici decidere se il loro interlocutore fosse un umano o un robot. Se il programma informatico fosse riuscito a convincere almeno il 30% degli umani, il test sarebbe stato da considerarsi riuscito.
Di questi, soltanto “Eugene” è riuscito a passare il test con successo, convincendo il 33% dei giudici. La differenza, rispetto al le altre volte che il test di Turing venne considerato superato e quella del giugno 2014, è che gli argomenti di discussione, in questa prova, non vennero definiti prima di iniziare il test.
In realtà le critiche non sono mancate: il programma si fingeva un adolescente e questa interpretazione del test ne avrebbe facilitato la riuscita poiché gli interlocutori umani tendono ad attribuire più facilmente all’età un tipo di comunicazione poco ortodosso. Anche la scelta della nazionalità fittizia è stata oggetto di critiche, in quanto avrebbe portato i giudici a ritenere le disfunzioni sintattiche come conseguenza del fatto che il ragazzo non fosse di madrelingua inglese. Infine, per il momento l’articolo scientifico coi dettagli dell’esperimento non è ancora stato pubblicato, e l’università di Reading non ha voluto fornire alcuna copia delle conversazioni ai giornali. Si parla di circa 300 conversazioni con 30 giudici tra i quali dei famosi nomi nel campo dell'intelligenza artificiale.
C'è quindi da pensare che un software non possa essere scambiato per un essere umano, ma che, invece, ciò sia possibile solo in determinate e limitate condizioni e solo per una minoranza di casi (il famoso 30% che dovrebbe essere portato almeno a 56% secondo alcuni esperti).
Concludendo possiamo farci una domanda: ha ancora senso il Test di Turing? La domanda iniziale: “Can a Machines think?” è ancora valida quando ancora non abbiamo consapevolezza di cosa si intenda per pensiero?
Ognuno di noi, quando conversa con un chatbot (programmi come ad esempio ELIZA che simulano una conversazione), ci proietta se stesso, mette in moto i circuiti dell’empatia, cercando di specchiarsi in quella relazione: vuole essere ingannato. Ma un’altra parte non accetterà mai che un sistema artificiale, per quanto sofisticato, possa essere in grado di pensare.
In una puntata di Battlestar Galactica (una serie televisiva di fantascienza) una frase ci porta a riflettere sul Test di Turing, quando un umano, parlando con un Cylone dice: “Noi siamo umani, voi siete soltanto macchine”.
Insomma il tempo di HAL 9000 (del film 2001 Odissea nello spazio) è ancora lontano ed il 2001 è passato da 13 anni...
«My mind is going. There is no question about it. I can feel it. I can feel it. I can feel it.
I'm afraid.»
(HAL9000 2001 Odissea nello spazio)
Questo mese l'analista Mary Meeker della società Kleiner Perkinsha rilasciato la sua tanto attesa presentazione sullo stato di internet (per chi sia interessato a consultarla il sito:http://www.kpcb.com/internet-trends) . Della presentazione, molto articolata, analizzeremo in questo articolo, solamente di alcune parti.
Il 25% del traffico web è ormai generato dai dispositivi mobili, trainato principalmente dai
video e dalle foto segno, a detta della Meeker, che i device mobili sono protagonisti di una 're-immaginazione' del web, per creare e condividere una gamma ampia e differenziata di informazioni; cresce, infatti, a ritmo sostenuto, la diffusione degli smartphone (+20% slide 4) soprattutto in mercati quali la Cina, l'India, il Brasile, anche se i dispositivi intelligenti rappresentano ancora solo il 30% dei 5,2 miliardi di device; i tablet hanno registrato una crescita del 52%, contribuendo all'aumento dell'81% del traffico generato dalle piattaforme mobili.
Un altro fatto è che la diffusione di internet sia diminuita del 10% rispetto all'anno precedente e stia crescendo, però, in mercati scarsamente redditizi come l'India, l'Indonesia, la Nigeria (slide 4 ).
Tra i trend più in crescita c'è quello della condivisione delle immagini: ogni giorno vengono scambiati dai device mobili 1,8 miliardi di foto.
Tra i sistemi operativi più usati dai device vediamo che, tra il 2005 ed il 2013 c'è stata la sparizione di Symbian e l'affermarsi (in maniera dirompente) di Android; mentre IOS rimane stabile (slide10).
Tra le applicazioni di messaging (slide 36) rimane al primo posto WhatsApp (ormai sul mercato da 4 anni), seguito da Tencent. Chiudono la classifica rispettivamente Snapchat e Viber.
Su questo punto è da notare che i dati si riferiscono al 2013, cioè prima che Facebook comperasse WhatsApp, bisognerà vedere l'anno prossimo quali saranno le ripercussioni sull'utilizzo dell'app.
Proseguendo nell'analisi delle slide (37) notiamo che c'è un evoluzione nell'evoluzione del "messagging": facebook rimane il mezzo preferito per inviare pochi messaggi/notizie ad un largo numero di contatti, mentre i programmi di messaging vengono principalmente usati per inviare messaggi ad un ristretto ( o solamente uno) numero di contatti.
Nella slide 62, in fine, viene mostrata l'evoluzione della comunicazione nello scambio di immagini dove snapchat la fa da padrone, con una formidabile crescita nello scambio di foto singole, seguito
da WhatsApp.
Le implicazioni nate da questa veloce analisi sono molte ma vorrei soffermarmi, per adesso, alla crescita di snapchat e WhatsApp.
Snapchat permette di inviare immagini che rimangono sul dispositivo ricevente solamente per un limitato periodo di tempo. WhatsApp permette di inviare invece messaggi e foto a un solo contatto oppure ad un ristretto numero di contatti; entrambe le applicazioni, quindi, permettono di usufruire di una certa privaciy rispetto al altre forme di condivisione di contenuti.
Si desume che l'utente internet stia sempre più ricercando una propria privaci e che l'era del grande fratello (non Orweliano in questo caso ma televisivo) stia tramontando.
Rimane, comunque, sempre vero quello che aveva detto a suo tempo Kevin Mitnick detto "Condor" nel suo libro "L'arte dell'inganno": un computer sicuro è un computer spento, quindi bisogna sempre prestare attenzione ai contenuti che si condividono tramite internet.
La tecnologia influenza e trasforma la società, ne migliora la vita, garantisce il progresso ma ne condiziona, spesso, anche la condotta.
Con il lento ma inesorabile calo del digital divide (il divario esistente tra chi ha accesso effettivo alle tecnologie dell'informazione in particolare personal computer e internet e chi ne è escluso), la comunicazione sta cambiando nei contenuti e nello stile: alle parole, sempre più spesso, si sostituiscono le immagini, alle idee i “re-post” o i “Like”; alcuni comportamenti , che sono sempre esistiti, vengono esasperati e/o accentuati dall’uso dei nuovi media. Alcuni motociclisti ed automobilisti, ad esempio, si divertono a postare video dove corrono, zigzagano e sfiorano altri utenti della strada, mentre viene inquadrato il contachilometri che tocca velocità impensabili.
Ultimamente si stanno sviluppando due nuove mode tra gli utenti di internet (soprattutto gli adolescenti) che hanno risvolti preoccupanti: la “Neknomination” ed il “Knockout Game”.
Sebbene siano due sfide completamente diverse tra di loro hanno in comune che entrambe si sviluppano e si propagano tramite social network .
Il primo (Neknomination) , nato in Australia, è la contrazione delle parole inglesi neck and nominate, ovvero collo e nomina (dove per collo si intende il collo della bottiglia) e consiste nel filmarsi mentre si beve una pinta di una bevanda alcolica tutta d'un fiato e pubblicare il filmato sul web; l'autore del filmato dovrà inoltre nominare altri due amici, che avranno 24 ore di tempo per raccogliere la sfida ed eseguire a loro volta la bevuta. Chi non rispetta le regole una sera sarà costretto ad andare in un pub e offrire agli altri.
In Paesi, come Inghilterra, Stati Uniti e Irlanda, questo gioco ha già fatto le sue vittime. Almeno 5 ragazzi sarebbero morti dopo avervi partecipato e tanti altri sono finiti in ospedale in coma etilico.
Su Facebook le pagine dedicate a questo gioco sono parecchie e, tutte, hanno parecchi LIKE come ad esempio questa pagina creata il 23/03/2014https://www.facebook.com/pages/Neknomination/290173311139913.
Un ragazzo intervistato dall’Independent che per la sua NekNomination ha tracannato mezzo litro di sambuca in 10 secondi , oltre all’alcol poi, alcuni sfidano a compiere azioni proibite o pericolose , come è successo a John Byrnem, morto per essere saltato in un fiume come parte della sua NekNomination.
Una ragazza inglese, pinta alla mano, si è ripresa mentre si spogliava nel bel mezzo di un negozio Asda.
Gruppi di genitori irlandesi e inglesi hanno già chiesto a gran voce al social network di mettere offline i video pubblicati e chiudere le pagine dedicate al gioco: da Facebook però hanno detto di no, perché di fatto il contenuto delle NekNomination non viola le regole di Cupertino.
Il gioco intanto si è evoluto e, adesso, ci si sfida non solo sulla quantità e velocità con cui si ingurgitano gli alcolici, ma anche sul modo più estremo di bere: così, c’è chi gusta birra dalla tazza del cesso facendo la verticale e chi tracanna bicchieri di vodka con dentro pesci rossi vivi. O ancora, chi si fa un frullato di gin e cibo per cani o peggio con un intero topo morto.
Il Knockout Game, invece, consiste nello stendere con un solo pugno un ignaro passante e poi postare il video.
Il primo caso in Italia di knockout Game si è verificato a Favaro Veneto, per l'esattezza, appena fuori da un centro commerciale nel gennaio del 2014, mentre la prima vittima (morta) è stato un cameriere bengalese,
Zakir Hoassini, morto dopo 24 ore di agonia per un pugno preso in faccia nel centro di Pisa.
Secondo alcuni psicologi questi comportamenti estremi esprimono un profondo bisogno di riconoscimento e di essere visti. I giovani sono alla ricerca di un attestato relativo alla loro identità, al loro valore e alla loro diversità rispetto agli adulti; in mancanza dei riti di passaggio, quelli che una volta sancivano l’ingresso nel mondo dei grandi e oggi in disuso, c’è la ricerca spasmodica di visibilità e di complicità fra coetanei.
Se prima dell’avvento di internet e dei social network questi comportamenti estremi avvenivano in sordina, adesso i giovani usano la rete per manifestare questi loro atteggiamenti.
Dal 2009 Shodan è uno dei motori di ricerca più utili agli hacker di tutto il mondo perché consente di ottenere velocemente informazioni riguardanti gli indirizzi IP di siti Web, servizi online, Webcam connesse e ogni altra attività Internet.
Ma cosa fa e come funziona Shodan?
Ogni computer connesso a Internet o eventualmente dispositivo ha un indirizzo IP pubblico, quindi raggiungibile dall'esterno. Il motore di ricerca sapendo il range di indirizzi disponibili online in tutto il mondo, come un crawler fa una scansione automatica e cerca di connettersi a tutti. Per ogni IP a cui riesce a connettersi ne legge i cosiddetti banner ( ovvero i messaggi di benvenuto dei server); questi, per un pirata informatico sono come delle impronte digitali: sa che a quell'indirizzo IP corrisponde un server attivo, ne conosce la versione, di conseguenza eventuali falle e così via.
Chi si ricorda il film "War Games" del 1983 (invito tutti vivamente a riguardarlo), certamente ha presente quando il giovane protagonista - Matthew Broderick – mostrava alla sua amica il metodo della "war-dialing", chiamava cioè tutti i numeri di telefono in un determinato range fino a quando non rispondeva un computer.
Ecco Shodan fa la stessa cosa con gli IP, ma in più permette all'utilizzatore di personalizzare le ricerche; se ad esempio scrivessimo "OS/x city:"Verona" country:it" ci comparirebbe come ricerca solo nella città di Verona in Italia i server che corrispondono alla parola OS/X .
Per utilizzare Shodan basta collegarsi al sito web (http://www.shodanhq.com/) e registrarsi; quindi si utilizza come un comune motore di ricerca ( chi è abituato ad usare solamente google avrà qualche difficoltà all'inizio).
Shodan mi permette anche di impostare dei filtri :
after/ before: limita la ricerca ad un determinato range temporale ad esempio: before:20/03/2010 ( attenzione su usa la data nel formato inglese/americano gg/mm/aaaa)
city: il nome della città. Ad esempio: city:"Bologna"
country: le due lettere che identificano il paese; ad esempio country:IT
geo: latitude and longitude permette di identificare un range geografico con i punti indicati con le coordinate di latitudine e longitudine.
Port: cerca solo server con determinate porte aperte
Os: Cerca I server con un determinato sistema operativo
Hostname: il nome completo o parziale di un host.
Da questa breve spiegazione sulle possibili ricerche offerte da Shodan si evince che questo motore di ricerca, di per sé, non sarebbe pericoloso, ma , come detto all'inizio dell'articolo, permette ad un hacker anche principiante di acquisire informazioni utili ai suoi scopi.
Per finire ci tengo a ricordare una cosa: Un "vero" Hacker viola un sistema solo per il gusto di farlo e non per trarne un profitto personale.
Con la diffusione delle case intelligenti (frigoriferi che dialogano con il microonde che poi ti manda sullo smartphone la lista della spesa ) la maggior parte delle persone si preoccupa della possibile propagazione di virus attraverso questi dispositivi, tanto che alla fine dell'anno passato (2013) e inizio del presente (2014) diversi giornali nazionali lanciavano l'allarme ( es. repubblica del 20 gennaio 2014 ) In realtà la paura che le persone che fanno uso di questi dispositivi dovrebbero avere è ben altra: un vero hacker non entrerà mai nel vostro sistema per mandarvi spam o virus come riporta l'articolo di repubblica, ma entrerà nel sistema solo per il gusto di farlo ( come ogni hacker fa) e poi lascerebbe un ricordo della sua presenza, magari spegnendovi il frigo o accendendo il fornello oppure alzando il riscaldamento a 60° in pieno agosto. Vorrei portare l'esempio di Marc Gilbert, padre di 34 anni di una bambina di 2 anni, che è stato vittima di un hacker che , seppur virtualmente, si è insinuato in casa sua. L'uomo era tornato dalla propria festa di compleanno e stava per entrare nella camera di sua figlia per darle la buonanotte ma, mentre era ancora fuori, ha sentito chiaramente la voce di un uomo provenire dall'interno. Marc, che si è precipitato in camera in cerca di un aggressore che in realtà non c'era o meglio non nel senso letterale del termine. Tutto ciò che era presente in camera era una voce, tetra, che fuoriusciva dal baby monitor installato in camera e che ripeteva questa frase: "Wake up you little slut". Un uomo, dunque, la cui identità resta ignota, era riuscito a indicizzare l'indirizzo IP del baby monitor, riuscendo a vedere quanto accadeva in quella stanza, trasmettendo addirittura la sua voce. Ma come è possibile che questo possa succedere? Ogni computer connesso a Internet o eventualmente dispositivo ha un indirizzo IP pubblico, quindi raggiungibile dall'esterno. Il motore di ricerca sapendo il range di indirizzi disponibili online in tutto il mondo, come un crawler fa una scansione automatica e cerca di connettersi a tutti. Per ogni IP a cui riesce a connettersi ne legge i cosiddetti banner". Una volta interrogati posso fornire informazioni di vario genere: la tipologia e il nome del server web, il software adottato (Apache) e la versione, la geolocalizzazione, etc. E così di fatto si sa che a quell'indirizzo IP corrisponde un server attivo, magari web, conosce la versione e così via di conseguenza eventuali falle. Quindi, anche se il vostro Smartphone od il vostro frigorifero non compare su google quando fate una ricerca, non vuol dire che non sia presente sulla rete e che non sia rintracciabile. In un prossimo articolo parlerò del motore di ricerca più pericoloso al mondo, che permette appunto di rintracciare questi dispositivi collegati.
L' ECDL (European Computer Driving Licence), detta anche Patente europea per l'uso del computer, si evolve e dal 1 settembre 2013 è in vigore la "Nuova ECDL", ovvero una nuova famiglia di certificazioni ( proposta sempre da ECDL Foundation e AICA) destinata a sostituire progressivamente le attuali certificazioni ECDL Core, ECDL Start ed ECDL Advanced.
La nuova ECDL propone nuovi moduli e consente una maggiore flessibilità, in quanto il candidato può scegliere la combinazione di moduli che ritiene più interessante e utile e chiedere in ogni momento un certificato che attesti gli esami superati; inoltre viene posta particolare attenzione a nuove problematiche quali la sicurezza informatica, il web editing ecc.
Ma serve l'ECDL?
Quella della ECDL è una storia molto particolare. Se poi si guarda con attenzione ai cavilli si scopre che la patente non è nemmeno Europea: "non esiste alcun sistema di certificazione o di qualificazione europea", parola del commissario europeo Viviane Reding, in risposta ad una interrogazione del 2001 del deputato europeo Francesco Musetto.
Prima di tutto va precisato che ECDL è una certificazione standard, ma non costituisce titolo legale di studio né si configura come qualifica professionale. Essa è paragonabile alle certificazioni riguardanti le conoscenze linguistiche (per esempio il TOEFL o il Cambridge Certificate per l'inglese) che fanno testo in tale campo in tutto il mondo.
In Italia ha avuto una diffusione enorme all'inizio degli anni 2000 grazie all'operato di AICA, l'associazione non profit unica titolare riconosciuta a distribuire e conferire gli attestati con questa denominazione.
A livello burocratico, sebbene l' ECDL non abbia alcun valore di titolo di studio, viene riconosciuta nei concorsi pubblici o nei corsi universitari come punteggio aggiuntivo.
A questo punto è bene aprire una breve parentesi sui costi per ottenere la "patente" ECDL.
Dal sito dell' AICA (http://www.aicanet.it/) si legge che Occorre fare una distinzione fra i costi della certificazione (che occorre obbligatoriamente sostenere), e i costi della formazione.
I costi della certificazione sono dati dal costo della Skills Card e dal costo relativo a ciascuno degli esami che il candidato deve sostenere: per la Skills Card è di € 60 da pagare al Test Center presso cui viene acquistata; per ogni singolo esame è di € 18 da pagare al Test Center presso il quale l'esame viene sostenuto; il totale, inclusivo della Skills Card e dei sette esami,in assenza di ripetizioni, è di € 186, il tutto iva esclusa.
Per quanto riguarda l'analogo prezzo medio praticato ai candidati non studenti, esso risulta di circa il 30% superiore a quelli sopracitati.
Visto che negli ultimi 10 anni l' AICA si è data molto da fare affinchè l'ECDL venisse riconosciuta nei concorsi pubblici e nelle università per acquisire punti, risulta che l'unico a guadagnarci sia appunto AICA e che si verifichino situazioni paradossali, come quella di Davide C.
Davide C. nel 2007 partecipò ad un concorso bandito dal comune di Novi Ligure per un posto di lavoro a tempo determinato come "Istruttore Informatico" categoria C.
Dal curriculum vitae di Davide C., tra le varie informazioni personali, si può leggere che ha conseguito la maturità scientifica, una Laurea in Informatica, una Laurea Magistrale in Informatica dei Sistemi Avanzati e dei Servizi di Rete con il punteggio di 110 e Lode, che era al terzo anno del corso di Laurea in Informatica Giuridica per conseguire un'ulteriore laurea, che era vincitore di una Borsa di Perfezionamento e Addestramento alla Ricerca, settore nel quale era attualmente ed entusiasticamente impegnato, presso il Dipartimento di Informatica dell'Università del Piemonte Orientale, ma che non aveva mai conseguito la Patente Europea del Computer (ECDL).
Il 18 e il 19 luglio Davide C. si presenta per svolgere le tre prove e, prima dell'ultimo esame gli vengono comunicati i punti assegnati in base ai Titoli.
A fianco al suo nomelegge: Titoli di Studio e di Cultura = 0 (ZERO). Titoli di Curriculum = 0 (ZERO).
La curiosità che lo aveva spinto a partecipare al concorso sale e, al termine della prova finale, chiede delucidazioni circa i punteggi attribuiti ai Titoli di Studio e Cultura. Gli viene riferito che avendo una maturità scientifica la Laurea Magistrale in Informatica della durata di 5 (cinque) anni è stata considerata come "requisito essenziale per l'ammissione alla selezione" e non come un titolo di studio più elevato in quanto non possessore di ECDL.
Disorientato dalla risposta, Davide C. replica con chiarezza "se avessi conseguito la Patente Europea del Computer mi sarebbero stati assegnati punti per i Titoli di Studio in possesso?", la risposta chiara, sconcertante e monosillabica pronunciata dalla commissione è stata "SÌ".
Un "SÌ" che è sintomo dell'inquietante realtà che oggigiorno 60 ore di un corso base di computer possano equivalere non solo a un diploma di perito informatico ma a cinque anni di studi accademici!
Dopo questa incredibile storia, invito i lettori a provare uno qualunque, dei vari test online disponibili per verificare la propria preparazione all'esame ECDL ed a constatarne quanto siano inutili.
Concludendo, possiamo dire che la Patente Europea all'uso del computer non assicura di saper usare il computer ma di averne solo una conoscenza (spesso molto superficiale).