x
TITOLO


      whatsapp

Free space for free expression in english & italian

Established
1999
Managed by
F.Brunelli

X
La tua privacy è importante
Utilizziamo, senza il tuo consenso, SOLO cookies necessari alla elaborazione di analisi statistiche e tecnici per l'utilizzo del sito. Chiudendo il Cookie Banner, mediante il simbolo "X" o negando il consenso, continuerai a navigare in assenza di cookie di profilazione. More info

Tutti
Cookie tecnici
I cookie tecnici sono necessari al fine di "effettuare la trasmissione di una comunicazione su una rete di comunicazione elettronica, o nella misura strettamente necessaria al fornitore di un servizio della società dell'informazione esplicitamente richiesto dal contraente o dall'utente a erogare tale servizio" (art. 122, comma 1 del Codice privacy).
Cookie analitici di terze parti
I cookie analytics sono utilizzati al fine di valutare l'efficacia di un servizio della società dell'informazione fornito da un titolare di un sito, per progettare un sito web o contribuire a misurare il "traffico" di un sito web, ovvero il numero di visitatori ripartiti per area geografica, fascia oraria della connessione o altre caratteristiche.
Cookie di profilazione
Sono cookie che creano profili personalizzati relativi all'utente per finalità di marketing, ad esempio il retargeting o advertising sui social network.

Accetto Chudi
social social social social print

Nerdering

Sha Zhu Pan, dalla Cina con furore

Sha Zhu Pan”, tre parole cinesi possiamo tradurre come “pig butchering” (macellazione del maiale in Italiano), ma dietro queste tre parole non si cela una faida tra vegetariani e carnivori ma una truffa online che mira a disumanizzare la vittima, è complice nello sfruttamento di esseri umani e che, negli ultimi anni, sta colpendo sempre più persone. Purtroppo la maggior delle persone che rimangono vittime di questo tipo di truffa si vergona a denunciarla o ad accettarla come tale, anche a causa del nome della truffa che disumanizza chi ne è colpito e lo porta a vergognarsene.
In effetti la tecnica del pig butchering rientra a tutti gli effetti nelle classiche truffe romantiche che da qualche anno stanno rovinando tante persone: secondo Lloyds Banking Group, in Europa, nel 2023 è aumentato di un quinto rispetto l’anno precedente, pur avendo un importo medio inferiore rispetto all’anno precedente. In Italia, Secondo gli ultimi dati comunicati dalla Polizia Postale, i casi di "romance scam" sono in continuo aumento, partendo dal 2021 quando hanno avuto un incremento del 118% la tendenza è sempre stata in crescita, portando i truffatori a utilizzare metodi sempre più sofisticati e umilianti per la vittima.

Cos’è un Romantic Scam.
Per Romantic Scam o Romantic fraud, si intende un tipo di truffa dove la vittima viene sempre più coinvolta a livello emotivo con il truffatore.
L’autore della truffa solitamente ha diversi profili fake su social network o su siti di dating. Attraverso questi profili contatta la vittima e cerca di instaurare con lei un rapporto emotivo ed empatico per poi estorcerle soldi con richieste sempre più esose. All’inizio si tratta di piccole cifre per comperare, ad esempio, dei medicinali ma, con il passare del tempo le richieste si fanno sempre più pressanti. Quando poi la vittima non è più in grado di dare denaro il truffatore sparisce portandosi dietro, oltre ai soldi, una quantità di informazioni personali della vittima considerevole che vanno a finire nel darkweb.
Per quanto possa sembrare strano, la maggior parte delle vittime, secondo uno studio fatto da ricercatori italiani e pubblicato sul Clinical Practice & Epidemiology in Mental Health nel 2020 le donne di mezza età, con alti livelli di instabilità emotiva, tendenze a idealizzazione romantica delle relazioni affettive, ricerca di sensazioni forti, impulsività e predisposizione alla dipendenza, hanno più probabilità di essere vittime di truffe sentimentali; la maggior parte delle persone che è vittima di una truffa di questo tipo esce da una situazione emotiva che l’ha resa debole (può essere un divorzio, una separazione, la morte di una persona cara, ecc.). Le storie più comuni che vengono raccontate, dopo un periodo di chat sono del tipo: “Io o qualcuno a me caro è malato” oppure “ha fatto un incidente e da noi si paga l’ospedale”, oppure “ho bisogno di soldi per il viaggio per venire a trovarti e per il visto”. La maggior parte dei truffatori, infatti, si fingono persone che vivono lontano, in altri stati se non continenti. Per dare un’ idea del fenomeno, già nel 2018 il Better Business Bureau1 aveva fatto una ricerca, tramite un’azienda che si occupa di screening di profili online per conto di siti d’incontri, secondo la quale un profilo su 7 poteva essere falso; su tre milioni e mezzo di profili scansionati ogni mese, era risultato che, in media, 500.000 di questi erano falsi. Secondo un esperto (riporta Better Business Bureau) potevano esserci 25.000 possibili truffatori online alla ricerca di vittime in qualsiasi momento.
Ma non sempre alle vittime è chiesto di dare del denaro, talvolta (secondo un report del BBB dell’anno successivo) le vittime diventano dei criminali facendo da intermediari e aiutando a trasferire denaro da un conto all’altro: una stima di Terril Caplan2 di Fraud Aid (organizzazione che difende le vittime di truffa), indica come il 20-30% delle vittime di truffe sentimentali nel 2018 potrebbero essere state utilizzate come corrieri di denaro.

Pig Butchering
Negli ultimi anni è nato un nuovo tipo di romantic scam chiamato "macellazione del maiale”. Anche in questo caso la maggior parte delle vittime è di sesso femminile (67%) con un età compresa tra i 25 ed i 40 anni; Il 32% delle vittime ha una laurea e 41% delle vittime ha incontrato il truffatore su Facebook, Instagram o WhatsApp.
Rispetto alle classiche truffe romantiche il Pig Butchering è più sottile e richiede più tempo e si divide in diverse fasi: Packaging, Raising, Killing, Killed. Anche il metodo di defraudare la vittima è diverso in quanto spazia dai falsi Siti Web e app di investimento ai falsi Broker su MetaTrader, dai finti pool di mining3 di liquidità agli investimenti di gruppo, per finire al gioco online. Questo nuovo metodo di truffa è nato in Cina, dove è conosciuta come shāzhūpán (o Sha Zhu Pan), e prende questo nome dal metodo utilizzato dai truffatori, che “mettono all'ingrasso” le vittime (come si fa con i maiali prima del macello) per poi sottrarre tutto quello che hanno. Anche se principalmente questo tipo di truffe coinvolgono le criptovalute possono anche essere legate ad altri tipi di trading.

Le fasi dell’ingrasso e della macellazione
Abbiamo detto che questa truffa si divide in fasi. La prima prende il nome di Packaging, impacchettamento, dove la vittima viene preparata: dopo aver studiato la vittima sui suoi profili social o di dating viene contattata con una scusa qualunque (a volte la vittima viene contattata con un messaggio diretto facendo sembrare che si voleva scrivere a qualcun altro) e si inizia ad interagire con lei. Quasi sempre il truffatore si presenta come un uomo o una donna asiatica di bella presenza, racconta di sé e invita l’interlocutore a fare altrettanto, creando un rapporto di empatia; dopo qualche messaggio la vittima viene invitata ad utilizzare telegram o whatsapp. Questo passaggio è molto importante perché crea nel soggetto preso di mira un senso di falsa sicurezza essendo queste due applicazioni legate ad un numero di telefono. Tramite queste app inizia a condividere foto della sua vita, manda dei selfie, si dichiara single ed in cerca di un vero amore o una relazione stabile. Nelle foto che condivide c’è sempre del lusso, una bella macchina, cibi ricercati, una casa o vestiti di lusso, il tutto per far vedere che ha una vita agiata, creando credibilità al personaggio che interpreta. Si dice disposto/a a fare delle telefonate o delle videochiamate ma avverte che parla cinese ed il suo inglese non è perfetto; si dice altresì disposto/a ad incontrarsi ma non subito, troppi impegni adesso, ma sicuramente in futuro succederà. Quando parla di lavoro racconta quello che fa (investimento in criptovalute, trading, ecc.) ma sempre in maniera discorsiva. Saluta ogni mattina ed ogni sera e scambia vari messaggi durante il giorno.
Dopo una o due settimane si passa alla fase del Raising: confessa di essersi innamorato/a e inizia a chiamare la vittima con nomignoli quali amore, moglie, baby, bambino, ecc.; il soggetto preso di mira è invitato a scambiare foto piccanti creando così un nuovo livello di intimità. Inizia a parlare del suo lavoro più intensamente e parla delle sue finanze più apertamente (che sono ovviamente sempre superiori a quelle del truffato!).
A questo punto dice alla vittima che non sta sognando abbastanza in grande che possono farlo insieme e gli offre di investire come fa lui/lei (ovviamente non chiede soldi direttamente). Invita quindi a utilizzare un’appo o un sito che utilizza anche lui/lei anzi, per assicurare che non è una truffa, si offre di prestare del denaro per provare o utilizzare il suo account, così da provare e di guidare il/la malcapitato/a nell’investire.
Chiaramente il truffato vede che gli investimenti rendono anzi, quando inizia a utilizzare i suoi soldi all’inizio riceve anche dei frutti. All’inizio gli investimenti che consiglia di fare sono di piccola entità, così come i guadagni, ma piano piano si viene invogliati ad aumentare i soldi che si impegnano per avere più guadagno, così in futuro vittima e carnefice potranno vivere insieme e stare bene economicamente, magari comprarsi una casa o viaggiare. A volte il soggetto truffato è anche invitato a consigliare amici o famigliare a fare il medesimo investimento.
Il Killing è l’inizio della fase discendente della parabola e, a questo punto, iniziano i problemi. Alla vittima viene offerto di fare un investimento su di un bonus a tempo, oppure su di un’offerta per acquistare dei biglietti per una vacanza romantica a due; in entrambi i casi l’operazione richiede un deposito elevato in breve tempo per non perdere l’occasione. Nel caso di trading di prodotti o investimenti ci si potrebbe trovare a dover raggiungere un numero minimo di operazioni o investimenti, chiaramente ogni volta che si si investe il target successivo aumenta in modo da rendere difficile l’arrivare alla meta. Se la vittima comunica che in quel momento non ha la disponibilità per l’investimento il truffatore si offre di pagare (sempre all’interno della piattaforma) la differenza, più soldi sono stati messi più l’investimento di questo passaggio è economicamente impegnativo.
Se la vittima è reticente ad investire nuovamente si passa alla manipolazione empatica: il truffatore fa sentire in colpa la controparte, dicendo che non di fida (come può non fidarsi? Non ha guadagnato fino ad adesso?), umiliandola dicendo che non ha il coraggio di osare, mettendo il dubbio l’impegno e la serietà che li lega. Cerca di convincere la vittima che anche i suoi soldi sono bloccati ma che, per esperienza, poi vengono subito sbloccati perché gli è già successo. Se ancora vi sono delle resistenze si passa alle intimidazioni, si minaccia di inviare le foto spinte, che sono state condivise precedentemente, all’eventuale coniuge, o ai colleghi di lavoro o di pubblicarle sui social.A questo punto la vittima investe gli ultimi denari disponibili.
L’ultimo passaggio, che prende il nome di Killed, è il più crudele, perché il truffato, oltre a perdere i soldi, subisce una violenza emotiva paragonabile ad una separazione. Viene chiesto ancora più impegno nell’investimento, se li si accusa di essere truffatori, gli scammers, controbattono che sono anche loro truffati e che non si fida di loro. Infine la piattaforma chiude l’account e la malcapitata vittima viene anche bloccata dal truffatore sia sui social che su whatsapp, telegram, telefono ed in ogni altro contatto che avevano.

Una vera e propria fabbrica di scam
Si potrebbe essere portati a pensare che dietro questo tipo di truffe si nasconda una persona sola ma la realtà, come testimoniato dal documentario del 2023 della BBC “The pig butchering romance scam”, è molto più complicata e triste, includendo vere e proprie organizzazioni criminali e la tratta di esseri umani.
Ogni anno centinaia di uomini e donne di origine prevalentemente asiatica vengono rinchiusi in compounds e costretti a lavorare 12 – 16 ore al giorno recitando la parte di “innamorati” per le vittime che vengono agganciate sul web.
Questi ragazzi e ragazze vengono invogliati a trasferirsi in altre città o nazioni con la promessa di avere un lavoro con un buon stipendio ed una vita migliore (a volte vengono anche rapiti); una volta arrivati a destinazione (il documentario parlava della provincia di Sihanoukville in Cambogia) la loro sorte non è molto diversa di quella di tanti altri immigrati che cercano fortuna affidandosi a promesse di sconosciuti: si accorgono che il lavoro che gli era stato promesso non esiste e l’abitazione è un dormitorio condiviso con altri sfortunati. All’interno di questa struttura vi sono non solo i dormitori ma anche sale di posa che riproducono ambienti di una casa normale (così che le vittime di scam che fanno videochiamate possano vedere che il loro interlocutore è una persona reale); i giovani rinchiusi non possono lasciare il complesso dove vivono e possono muoversi solamente tra il dormitorio e gli uffici dove delle guardie controllano che nessuno fugga; qua i ragazzi sono costretti a lavorare in turni di 12 – 16 ore, alcuni durante il giorno altri durante la notte: avendo vittime in tutto il mondo devono adeguarsi agli orari dei singoli continenti. Non mancano le punizioni fisiche: se uno scammer non rispetta le regole o se viene scoperto dalla sua vittima subisce delle violenze che possono andare dall’essere percosso con dei bastoni o colpito da teaser fino all’essere rinchiusi in una gabbia. Il documentario della BBC mostra scene raccapriccianti delle punizioni che subiscono questi malcapitati che, se fortunati subiscono contusioni che li obbligano a letto per un paio di giorni, mentre se non lo sono rischiano di avere braccia o gambe rotte.
Sempre nel documentario della rete britannica si parla del complesso di Huang Le che, dal 2016 anche grazie alle truffe online, è cresciuto fino ad avere, oltre che il compound che ospita i ragazzi e le ragazze costretti a lavorare come scammers, un casinò, piscine, supermercati ed anche una stazione di polizia. Com’è possibile tutto questo? Perché le organizzazioni criminali lavorano con l’appoggio del governo locale.
A seguito delle denunce del documentario (partito dalla segnalazione di un ragazzo cinese che era riuscito a fuggire) le autorità locali hanno negato di avere affari con le organizzazioni criminali e che, in seguito ad indagini hanno ricevuto 6 denunce da parte di 11 cittadini stranieri che chiedevano di dimettersi dal loro lavoro presso il casinò Majestic 2 di proprietà di un uomo d’affari di nome Kuong Li.
Malgrado il vice governatore di Preah Sihanouk, Long Dimanche, affermato che alcune delle scene erano presumibilmente accadute nel 2020, prima che le autorità “reprimessero” il complesso, la BBC ha affermato che il compound ha continuato a funzionare fino alla pubblicazione del documentario dell' 8 marzo 2023, più di quattro settimane dopo che alle autorità erano state fornite prove dettagliate che mostravano le attività criminali.
Non è dato sapere se il complesso abbia ricominciato a funzionare o se sia stato spostato da un’altra parte, ma certo questo mostra come questo tipo di truffa (che richiede tempo e denaro per essere fatta) non venga attuata da un singolo individuo ma da organizzazioni malavitose ben organizzare e preparate.

L’IA la nuova frontiera?
Sebbene su GitHub esistono già dei progetti legati alla creazione di deepfake in tempo reale e al face swap (scambio di volti) come DeepFaceLive che permette lo scambio di volti in tempo reale per lo streaming su PC o le videochiamate, o Deep-Live-Cam che (Simile a DeepFaceLive), offre la possibilità di scambiare volti in tempo reale e creare deepfake video con un solo clic e un'unica immagine, il vero futuro delle truffe online passera dall’intelligenza artificiale: come mostra un video su youtube, i motori di rendering come Unreal Engine 54, possono creare persone che sembrano reali anche quando non lo sono; se questi motori sono associati a software di motion capture5 “creare” persone con le quali i truffatori fanno interagire le vittime diventa non solo più semplice ma anche più economico. Sempre tramite IA si possono creare voci di qualunque tipo e parlare ogni lingua; non solo ma con l’aumentare delle capacità e dei modelli di machine learning creare chatbot che possono interagire autonomamente sarà il futuro delle truffe online.
A fianco delle persone costrette a lavorare come scammers la nuova frontiera del Pig Butchering passa quindi dalla virtualità più completa tramite l’utilizzo “perverso” l’intelligenza artificiale e i motori di rendering sempre più precisi.

Come comportarsi.
Il Sha Zhu Pan è un fenomeno che non riguarda solo chi viene truffato ma coinvolge la tratta di esseri umani, le grandi organizzazioni criminali, ed i risparmi delle persone che si trovano ad affrontare un momento difficile della loro vita e sono quindi fragili.
Come sempre il primo avviso che viene spontaneo dare è: se una cosa è troppo bella per essere vera probabilmente non lo è, quindi non cascarci, non lasciarci abbindolare da lusinghe di bei ragazzi o belle ragazze.
Il secondo consiglio è non vergognarsi e denunciare. Non bisogna aver paura di denunciare di essere stati truffati, certo il fatto di chiamare una truffa “macellazione del maiale” non aiuta le persone ad esporsi ma, come abbiamo visto, denunciare può aiutare non solo chi è vittima ma anche le presone che sono costrette a lavorare come schiavi.
Infine il terzo e più importante consiglio è quello di documentarsi da fonti attendibili, fidarsi di chi ha più esperienza e cercare di stare il più aggiornati possibile su quello che accade nel web. Quest’ultimo consiglio è il più difficile da seguire perché, non solo ci impone di confrontarci con i nostri bias cognitivi e con noi stessi, ma richiede tempo ed impegno.

 

1 Il Better Business Bureau (BBB) è un'organizzazione non profit fondata nel 1912. Il suo obiettivo principale è promuovere la fiducia nel mercato e aiutare i consumatori a risolvere i problemi con le imprese e le organizzazioni di beneficenza. Il BBB è composto da 92 organizzazioni locali indipendenti negli Stati Uniti e in Canada, coordinate sotto l'Associazione Internazionale dei Better Business Bureaus (IABBB)
2 Terrill "Cap" Caplan è un esperto riconosciuto a livello internazionale in operazioni di criminalità organizzata in Africa Occidentale, frodi ad avanzamento di fondi, truffe via internet, strumenti di negoziazione contraffatti e il relativo riciclaggio di denaro. Ha oltre 30 anni di esperienza in tecnologia dell'informazione e gestione della sicurezza. Nel 1999, Caplan ha sviluppato la prima applicazione web prevenitiva contro le truffe, che registrava e impediva ai truffatori e ai bot di entrare nei siti web protetti, forum e guestbook. Questo strumento e il database risultante sono ora utilizzati dalle forze dell'ordine internazionali e dagli investigatori delle truffe per individuare le posizioni ripetute dei truffatori e fornire intelligence in tempo reale sulle attività delle truffe
3 Un pool di mining è un gruppo di minatori di criptovalute che uniscono le loro risorse di calcolo (hashrate) per aumentare le possibilità di risolvere un blocco e ricevere la ricompensa associata. In pratica, i minatori collaborano mettendo insieme la loro potenza di calcolo per avere una probabilità maggiore di trovare nuove monete digitali e condividere le ricompense in base alla quantità di potenza di calcolo che ciascuno ha contribuito
4 Un motore di rendering come Unreal Engine 5 è un software avanzato utilizzato per creare contenuti in 3D in tempo reale. È progettato per aiutare sviluppatori di giochi e creatori di contenuti a realizzare esperienze visive incredibilmente realistiche e dettagliate. Unreal Engine 5 introduce funzionalità rivoluzionarie come Nanite e Lumen, che migliorano notevolmente la fedeltà visiva e la dinamica dei mondi virtuali. Nanite consente di creare modelli incredibilmente dettagliati senza compromettere le prestazioni, mentre Lumen offre illuminazione globale in tempo reale, rendendo le scene più realistiche
5 I software che sincronizzano il movimento delle persone con personaggi virtuali sono spesso chiamati motion capture (o mocap) software. Questi strumenti utilizzano telecamere e sensori per tracciare i movimenti del corpo umano e trasferirli a un personaggio virtuale in tempo reale. Alcuni esempi di software di motion capture includono Adobe Character Animator, iClone, e Unreal Engine con il suo sistema di motion capture integrato.

 

 

Bibliografia

The pig Butchering Scam

IOCTA 2024

Il 25 luglio 2024, Europol ha pubblicato il suo atteso IOCTA 2024 (Internet Organised Crime Threat Assessment). La pubblicazione, quest’anno, arriva in un momento critico dopo che massiccio blackout informatico causato da un aggiornamento difettoso del software di sicurezza di CrowdStrike1, ed il sabotaggio informatico che ha colpito le linee TGV francesi a ridosso delle Olimpiadi, ha evidenziato la debolezza delle infrastrutture moderne dovute alla loro dipendenza informatica. Il rapporto prende in considerazione le minacce che la criminalità comune porta ai singoli cittadini anzichè le infrastrutture e il quadro che viene dipinto non è dei più rassicuranti.


Cos’è IOCTA?
L’Internet Organised Crime Threat Assessment (IOCTA) è un rapporto strategico pubblicato annualmente da Europol, attraverso il suo Centro Europeo per la Criminalità Informatica. Questo rapporto fornisce un’analisi delle minacce online più recenti e dell’impatto della criminalità informatica all’interno dell’Unione Europea. La sua prima pubblicazione è del 2014 con l’obiettivo di fornire una panoramica delle minacce informatiche emergenti e delle tendenze criminali online nell’Unione Europea; successivamente (dal 2015 al 2019) il rapporto venne aggiornato annualmente per riflettere i cambiamenti nel panorama della criminalità in questo settore. Durante questo periodo, si è osservato un aumento significativo delle minacce legate ai ransomware2, alla frode nei pagamenti e allo sfruttamento sessuale online dei minori. Durante la pandemia di COVID-19 IOCTA ha evidenziato a un aumento delle attività criminali online, con un focus particolare su truffe legate alla pandemia e attacchi informatici contro infrastrutture sanitarie.
Dal 2021 al 2023 I rapporti stillati dall’Europol, tramite IOCTA, hanno continuato ad evidenziare l’evoluzione delle minacce, con crescente attenzione verso il crimine organizzato online, l’uso abusivo delle criptovalute e le tecniche di phishing.
Dalla sua introduzione rapporto è diventato uno strumento fondamentale per le forze dell’ordine e i responsabili politici nell’UE, fornendo informazioni cruciali per combattere la criminalità informatica in modo efficace.


Il rapporto 2024
Quest’anno il rapporto indica che nel 2023 (i dati si riferiscono sempre all’anno precedente) gli attacchi ransomware, lo sfruttamento sessuale dei minori (CSE) e la frode online sono rimaste le manifestazioni più minacciose della criminalità informatica nell'Unione Europea; gli attori che operano questo tipo di crimini è composto da soggetti vari che vanno dal singolo individuo alle reti criminali organizzate che dimostrano sempre più competenze e capacità. Sebbene alcuni criminali informatici che hanno preso di mira l'UE erano all'interno stesso degli stati membri dell’Unione, altri preferivano operare dall'estero, nascondendo le loro operazioni e i loro fondi illeciti in Paesi terzi.
Le tecnologie basate sull'intelligenza artificiale (AI) stanno rendono l'ingegneria sociale ancora più efficace e molte vittime hanno avuto difficoltà a distinguere un soggetto reale da un bot3. Le dinamiche del mercato criminale dei servizi di malware e di servizi di phishing4 assomigliano alle dinamiche delle aziende reali, mentre il commercio di dati rubati sta diventando la principale minaccia legata al crime-as-a-service (CaaS ovvero cybercriminali che vendono i loro servizio o prodotti per eseguire compiti criminali): attraverso il Dark web si riescono a trovare script, strumenti e persone per creare e-mail di phishing.


Criptovalute e dark web.
Secondo il rapporto, sebbene la principale criptovaluta richiesta da chi opera un ranswomware sia il bitcoin, a causa della sua facile reperibilità sul mercato, vi è un crescente uso anche di altre monete virtuali come ad esempio Monero. Il dato importante che hanno notato gli investigatori è che c’è sempre una maggiore conversione di queste criptovalute in steblecoin5. Alcune stablecoin hanno incorporato funzionalità di blacklist nei loro smart contract che consente alle forze dell'ordine di richiedere alle aziende di congelare le stablecoin che sono state identificate come parte del portafoglio di un sospetto. Purtroppo tramite applicazioni che fanno uso di dati criptati stanno nascendo gruppi che mettono in contatto persone che vogliono scambiare criptovaluta al difuori dei circuiti standard oltre a soluzioni bancarie clandestine situate in paese extra UE e/o l’uso di carte di debito per criptovalute, che possono essere utilizzate per convertirle rapidamente in contanti presso gli sportelli automatici.
La rete Tor6 rimane ancora il metodo principale per accedere al dark web, dove Exploit, XSS e BreachForum7 sono stati tra i forum di criminalità informatica più attivi nel 2023. I criminali informatici sono stati visti condividere conoscenze di hacking e commerciare dati rubati, strumenti di hacking e servizi di cybercriminalità con i servizi che fungono anche da piattaforma per i broker di accesso iniziale. Gli Exploit sono principalmente di lingua russa e sono accessibili sia attraverso il clear web che il dark web con una quota di iscrizione o tramite una reputazione verificata (come per accedere alle redroom del darkweb8).
Sempre tramite il darkweb si trovano (per tempo limitato in quanto tendono a chiudere per riapparire successivamente ad un altro indirizzo) siti dove comperare droga, acquistare i servizi più o meno legali, armi, medicinali senza ricette, eccetera. La maggior parte sono gestiti da soggetti mono venditori che, in questo modo, possono evitare di pagare le commissioni alle piattaforme. Questo ha portato anche a casi di “exit scam”, ovvero casi nei quali gli amministratori chiudono improvvisamente un mercato e rubano tutti i soldi depositati.
Tra i forum segnalati nel 2023 compaiono CryptBB e Dread. In particolare CryptBB è un forum chiuso per i criminali informatici, tra cui hacker e programmatori, che va dai principianti agli esperti (gli amministratori stessi lo promuovono come il forum più adatto ai principianti della criminalità informatica). Qua  vengono offerti servizi di criminalità informatica, vendita di accessi al protocollo desktop remoto (RDP), “hacker a pagamento”, servizi di penetration test e bugreporting per i marketplace.
Dread, invece, è meno specialistico e i suoi contenuti variano dall'hacking al traffico di droga ed alle informazioni personali identificabili; con una base di oltre 400.000 utenti è considerato uno dei forum più popolari del dark web.
Infine, ma non per questo meno preoccupante, l’ IOCTA 2024 indica un aumento dell’uso, tramite il dark web, di strumenti e servizi che fanno uso dell’ intelligenza artificiale senza filtraggio. Il servizio Only Fake, ad esempio, vende documenti d'identità falsi generati dall'intelligenza artificiale che possono essere utilizzati per aprire conti online su servizi finanziari, aggirando le procedure Know Your Customer (ovvero un insieme di procedure utilizzate da aziende e istituzioni finanziarie per verificare l’identità dei propri clienti e valutare i potenziali rischi nel rapporto con essi allo scopo di proteggere l’azienda stessa e l’utente da tentativi di furto di identità, frodi online e pratiche di riciclaggio di denaro).


Ransomware-as-a-Service e Malware-as-a-service
Il modello di “Ransomware-as-a-Service” (RaaS) è un tipo di crimine informatico in cui i creatori di ransomware sviluppano e vendono il loro software dannoso ad altri criminali informatici. Questi ultimi, chiamati affiliati, utilizzano il ransomware per attaccare le vittime e chiedere riscatti. In cambio, i creatori del ransomware ricevono una percentuale del riscatto pagato.
Il rapporto enfatizza come i gruppi di ransomware che operano sotto questo modello abbiano cercato, dopo la chiusura dei servizi di Hive, BlackCat/ALPHV, di attirare affiliati capaci ai loro servizi, vantando che la loro infrastruttura è ospitata al di fuori dell’UE e del Nord America e che hanno una rigorosa politica di non registrazione dei log: le operazioni delle forze dell’ordine contro gli operatori di ransomware, infatti, danneggiano la reputazione dei gruppi nel sottobosco criminale e hanno un impatto sui loro affiliati. La chiusura dell’infrastruttura di un servizio di ransomware significa che gli affiliati perdono l’accesso al servizio, dove possono generare campioni di ransomware e monitorare lo stato delle loro vittime. Questo espone gli affiliati al rischio di essere identificati e potenzialmente causa loro la perdita di possibilità di pressione verso le vittime.
Uno dei fornitori più prolifici del mercato RaaS, LockBit è stato smantellato nel febbraio 2024 grazie a un’azione coordinata delle forze dell’ordine di 10 paesi. Purtroppo il suo posto è stato già preso da Akira, un nuovo gruppo che, data la rapida crescita della base di vittime e le loro capacità operative mature, è probabile che diventi una minaccia crescente nel prossimo futuro.
Nel 2023 si sono verificati diversi cambiamenti nel panorama del malware-as-a-service (MaaS). Dopo l'eliminazione dell'infrastruttura del malware Qakbot, i criminali informatici hanno reagito rapidamente e si sono rivolti ad altri fornitori di servizi di dropper/loader9 già affermati o emergenti. Le principali alternative a QakBot attualmente utilizzate dai criminali informatici sono IcedID, SystemBC, Pikabot, DanaBot e Smokeloader, che offrono capacità simili di offuscamento e consegna di payload dannosi ai sistemi infetti.


Schemi di frode online e di pagamento
Un altro focus su cui si sofferma il rapporto è quello degli schemi di frode online che appresentano una crescente minaccia criminale nell'Unione Europea che colpisce milioni di cittadini europei e si traduce in miliardi di euro rubati. L’aumento degli acquisti online, unita alla crescita di phishing-as-a-service e allo skimming digitale (il furto di informazioni sensibili dai siti web) rappresenta una grande minaccia non solo per i cittadini UE ma, soprattutto, per i commercianti elettronici.
Il metodo più utilizzato rimane ancora il phishing e le sue varianti come lo smishing (phishing via SMS/testo), lo vishing10 (phishing vocale) e lo spoofing11. Affianco a questi metodi tradizionali, il 2023 segna la nascita dello quishing, o phishing con codice QR. Quando una vittima scansiona un codice QR contraffatto, può essere reindirizzata a un sito web fraudolento che richiede informazioni personali o bancarie, oppure può scaricare un malware sul proprio dispositivo. Questo rende il quishing particolarmente insidioso, poiché i codici QR sono comunemente utilizzati in contesti quotidiani come ristoranti, musei e parcheggi.

Proprio come nel caso dei RaaS e MaaS esiste il phishing-as-a-service che è un mercato in rapida ascesa. Questi servizi forniscono prodotti, servizi e dati delle vittime che consentono a un numero sempre maggiore di reti criminali di impegnarsi, indipendentemente dal loro livello di organizzazione e competenza tecnica, di agire in questo ambito: chiunque può richiedere ai fornitori di phishing-as-a-service una pagina di phishing per qualsiasi banca o ufficio postale nell'UE.
Gli investigatori hanno rilevato diversi casi collegati a phishing bancario, con affiliati che gestiscono vari negozi web falsi che reindirizzano a false pagine web di banche e pagamenti in parallelo. Anche per questi servizi il metodo di pagamento è quello delle cripto valute e i servizi sono disponibili nella rete Tor online.
Una nota importante è quella che nel 2023 ha avuto un’ impennata l’utilizzo delle “shock calls” (Chiamate Shock): i truffatori contattano le vittime, spesso anziani, e le mettono sotto pressione emotiva per ottenere denaro o informazioni quali numero di conto e altri dati peronali.
Quello del commercio dei dati personali è, infatti, un altro dei punti evidenziati dal rapporto IOCTA 2024. I cyber criminali cercano di mira impossessarsi degli account delle vittime come online banking, account di posta elettronica o profili di social media. Attraverso queste pratiche i criminali sono anche in grado di impossessarsi dei soldi e di accedere ai servizi digitali delle vittime o a informazioni private sensibili che possono poi essere monetizzate online. Inoltre, poiché le banche trattano sempre più spesso i soldi persi attraverso truffe come negligenza da parte del legittimo proprietario del conto, gli schemi di frode che colpiscono i conti dei singoli rimangono un'attività a basso rischio e ad alto profitto per chi le perpetra.

Le frodi sugli investimenti continuano a rappresentare una minaccia fondamentale nell'UE. Alle vittime vengono offerti investimenti sicuri tramite crypto valute, spesso associati alla creazione di profili falsi di fondi di investimento reale. Alcune volte, vengono create situazioni ad hoc per cui la vittima installa applicazioni di gestione remota per la “correzione” di errori nel computer per la gestione delle transizioni. A quel punto il criminale ha, non solo l’accesso a tutti i conti, ma anche all’intero dispositivo della vittima.
L’utilizzo dell’intelligenza artificiale per la generazione dei contenuti rende questo tipo di frodi particolarmente pericolose, in particolare sono aumentate le truffe (malgrado il basso tasso di denunce dovute alla vergogna) delle “truffe amorose”. Tramite gli strumenti di intelligenza artificiale non solo i truffatori hanno maggior possibilità di raggiungere più vittime contemporaneamente, ma anche di migliorare le loro tecniche di ingegneria sociale e di interazione con esse.  Le truffe romantiche tramite intelligenza artificiale (AI) funzionano a step successivi fruttando le emozioni e la buona fede delle persone: i truffatori utilizzano l’AI per creare profili falsi su siti di incontri e social media.
Tramite l'intelligenza artificiale possono generare immagini realistiche di persone inesistenti utilizzando tecnologie come i deepfake; una volta creato il profilo, i truffatori iniziano a interagire con le vittime, spesso utilizzando chatbot avanzati che possono sostenere conversazioni credibili e personalizzate. I truffatori lavorano per guadagnare la fiducia della vittima, spesso condividendo storie personali inventate e mostrando un interesse genuino. Possono anche utilizzare l’AI per clonare la voce di una persona cara alla vittima (spesso accedendo a dati disponibili nel dark web), rendendo la truffa ancora più credibile.  Dopo aver instaurato una relazione virtuale, i truffatori iniziano a chiedere denaro. Le richieste possono essere giustificate da emergenze mediche, problemi finanziari improvvisi, piani per incontrarsi di persona o anche di investimenti sicuri. Una volta ottenuto il denaro, i truffatori spariscono, lasciando la vittima senza risposte e con un danno emotivo ed economico significativo.

Tramite il suo rapporto l’Europol evidenzia come Lo skimming digitale non solo è rimasto una minaccia chiave nel 2023 ma sta anche aumentando. Questa è una forma di frode informatica in cui i criminali rubano i dati delle carte di credito o di pagamento dai clienti di un negozio online. Questo avviene durante il processo di checkout, quando i dati vengono intercettati senza che i clienti o i commercianti se ne accorgano.
Gli autori iniettano codice dannoso (chiamato web skimmer) nel sito di un negozio online attraverso vari metodi e tecniche che vanno dall’ essere inserito direttamente nel server del sito web bersaglio o sfruttando una vulnerabilità in una piattaforma di e-commerce. I Web skimmer possono anche agire in un sito sfruttando una risorsa di terzi, in quest'ultimo caso, se una pagina contiene codice proveniente da un altro dominio, un aggressore può iniettare codice dannoso e aggirare la maggior parte delle misure di sicurezza. Una volta che il sito è colpito, quando un utente fa una transizione, i dati della sua carta vengono trasmessi anche al server dell’attaccante.


Sfruttamento sessuale dei minori
Il materiale sugli abusi sessuali sui minori (Child Sexual Abuse Material o CSAM) continua a proliferare online, incidendo fortemente sul lavoro delle autorità che, con un volume crescente di file da analizzare manualmente e le relative informazioni sui casi, si trovano ad aver bisogno di un supporto tecnologico innovativo per indagare su questo tipo di crimine, la cui produzione e diffusione rimane un problema importante, con una grande parte del materiale rilevato identificato come materiale esplicito autogenerato ovvero contenuti sessuali creati e condivisi dalle stesse vittime, spesso minorenni.
Il volume di materiale sessuale autogenerato costituisce una parte significativa e crescente del CSAM rilevato online, spesso ha come soggetti bambini, in particolare adolescenti e, in molti casi, è il risultato di scambi volontari tra pari ma può essere classificato come CSAM una volta diffuso a terzi senza il consenso della persona che lo ha inviato per prima.
Questo tipo di materiale è spesso anche il risultato di un'attività di grooming12 ed estorsione sessuale: l'autore identifica la vittima online, spesso su piattaforme di gioco o social media e, dopo aver guadagnato la sua fiducia attraverso il grooming, il criminale ottiene materiale sessualmente esplicito e lo usa come leva per estorsioni. Un senso di vergogna e la speranza che le minacce potrebbero smettere spesso portano le vittime a produrre più materiale sessuale auto-generato. Questo tipo di minacce non colpisce però solo i minori ma anche adulti ai quali, spesso viene anche chiesto del denaro: l' autore del reato minaccia la vittima di condividere l'immagine esplicita online o di inviarla a contatti vicini. La vittima paga spesso per vergogna e, in molti casi, il processo di estorsione dura per un tempo considerevole.

In precedenza abbiamo accennato alla red room del dark web. In questi spazi virtuali viene spesso perpetrato il “Live-Distant Child Abuse” (LDCA), una metodologia nella quale i trasgressori guardano abusi sessuali su richiesta con il sostegno di uno o più facilitatori che perpetrare l'abuso sulla vittima/e in cambio di pagamento. Questo tipo di crimine si distingue come la principale forma di sfruttamento sessuale commerciale dei minori online e come una delle principali fonti di CSAM sconosciuta. A volte il crimine viene fatto all’insaputa della vittima tramite il capping, che comporta la registrazione nascosta della vittima (ad es. in una videochiamata/sessione di live-streaming).
Forum e chat room sono ancora ambienti di rete essenziali per i trasgressori di CSAM e discutono abusi perpetrati e fantasie, tecniche per pulire i bambini e suggerimenti. Gli autori di reati più esperti di solito si collegano in forum sul dark web che sembrano sempre più specializzati e adattati alle preferenze sessuali. Questi delinquenti hanno livelli sempre più elevati di conoscenze tecniche e misure per nascondere le loro tracce. I forum hanno sezioni specializzate per le questioni tecniche con suggerimenti e opzioni di formazione. A differenza di quelli presenti nel dark web, i forum in chiaro, di solito non hanno una durata superiore ai due anni, in quanto, pur essendo spesso ospitati in server fuori UE, una volta identificati vengono chiusi. Per superare tali problemi, gli amministratori responsabili di questi forum creano siti mirror, tenendo una copia del suo contenuto e, ogni volta che il loro sito viene dismesso, lo ricreano rapidamente a un nuovo indirizzo. Le piattaforme di comunicazione end-to-end crittografate (E2EE) sono sempre più utilizzate dai trasgressori per lo scambio di Child Sexual Abuse Material e a fini di comunicazione.
Anche per quanto riguardi i reati legati al materiale sugli abusi sessuali sui minori (sottolinea il report), i modelli di intelligenza artificiale in grado di generare o alterare le immagini vengono utilizzati in modo improprio dai trasgressori per produrre materiale CSAM e per estorsione sessuale. Anche nei casi in cui il contenuto è completamente artificiale e non è raffigurata alcuna vittima reale, il materiale CSAM generato dall'intelligenza artificiale contribuisce comunque all'oggettivazione e alla sessualizzazione dei bambini.
La produzione di materiale fake tramite IA risulta ampiamente disponibile e non richiede elevati livelli di competenza tecnica, ampliando potenzialmente il numero e lo spettro degli autori e dei crimini:  questi file possono essere facilmente utilizzati per il cyberbullismo o per l'estorsione sessuale. Inoltre, maggiore è il volume di CSAM artificiale in circolazione e più difficile diventerà identificare i trasgressori o le vittime attraverso il riconoscimento delle immagini.


Considerazioni finali
Uno degli aspetti che appare più evidente leggendo il report IOCTA 2024 è l’aumento dell’utilizzo dell’ intelligenza artificiale per creare truffe e frodi online, che crea nuove minacce che riguardano sia l'abuso di strumenti e servizi legittimi sia le loro versioni dannose create ad hoc dai criminali; il numero crescente di LLM13 senza filtro immediato emerso di recente è destinato a moltiplicarsi e ci saranno probabilmente sempre più pubblicità generate dall'intelligenza artificiale che attireranno potenziali vittime di frodi online. Inoltre Gli strumenti di intelligenza artificiale faciliteranno l'ingresso alla criminalità informatica ad individui con competenze tecniche limitate i quali saranno in grado di eseguire attacchi informatici e orchestrare schemi di frode online piuttosto sofisticati.
Per quanto riguarda l’Unione Europea appare evidente che, affianco al continuo monitoraggio da parte delle forze dell’ordine preposte dei crimini, sarà necessario iniziare una campagna di informazione e sensibilizzazione, nonché di cultura digitale a livello di singoli stati.
Il rapporto dell’ Europol, sebbene disegni una situazione a tinte fosche, non deve spaventarci ma portarci ad una maggior attenzione ai nostri comportamenti online.
Nel 1959 Alberto Manzi iniziò a condurre il programma “ Non è mai troppo tardi ” per la RAI, il cui scopo era quello di insegnare l’italiano a una classe virtuale, composta per lo più da adulti, in un periodo in cui il tasso di analfabetismo era altissimo. Tramite questo programma milioni di italiani impararono a leggere e scrivere. Allo stesso modo, visto l’uso sempre più intensivo delle tecnologie digitali, sarebbe il caso di iniziare una serie di “lezioni” sul modello del programma di Manzi destinata a trattare l’alfabetizzazione digitale: troppe persone utilizzano i dispositivi in maniera  superficiale e spesso, con supponenza, pensano di sapere tutto dato che usano le applicazioni in maniera continua e intensa, quando in realtà non conoscono le cose basilari.
Bisogna ricordare ad esempio che, se mettiamo le foto dei nostri figli sui social, oggi possono essere prese e modificate tramite IA. Se su TikTok veniamo contattati da una bella cinesina che vive a Pechino che mi parla e mi invita ad essere suo amico, dobbiamo sapere che quest’app in Cina è bandita e che quindi, molto probabilmente, si tratta di una truffa. Ma, soprattutto dobbiamo ricordare che se una cosa è troppo bella per essere vera, probabilmente non lo è.

 

Bibliografia:
Internet Organised Crime Threat Assessment IOCTA 2024.pdf (europa.eu)

 

1 CrowdStrike è una società statunitense di sicurezza informatica fondata nel 2011, nota per la sua piattaforma di sicurezza CrowdStrike Falcon, che offre protezione avanzata.  19 luglio 2024,un aggiornamento difettoso del software di sicurezza CrowdStrike ha causato una serie di blocchi su milioni di dispositivi Microsoft Windows in tutto il mondo di aziende, enti pubblici e privati, causando disagi e danni economici.
2 I ransomware sono un tipo di malware (abbreviazione di “malicious software”) che blocca l’accesso ai dati o ai dispositivi della vittima, richiedendo un riscatto (in inglese, “ransom”) per ripristinare l’accesso.
3 Un bot IA (o chatbot) è un programma software che utilizza l’intelligenza artificiale per simulare una conversazione con gli utenti
4 Il phishing è una forma di truffa online in cui i malintenzionati cercano di ingannare le vittime per ottenere informazioni sensibili, come password, numeri di carte di credito o altre informazioni personali. Questo viene spesso fatto inviando email o messaggi che sembrano provenire da fonti affidabili, come banche o altre istituzioni, ma che in realtà sono falsi.
5 Le stablecoin sono un tipo di criptovaluta progettata per mantenere un valore stabile, ancorato a un altro asset come una valuta stabile (ad esempio il dollaro USA) o una merce (come l’oro). Questo le rende meno volatili rispetto ad altre criptovalute come Bitcoin o Ethereum
6 La rete Tor (The Onion Router) è un sistema progettato per garantire l’anonimato e la privacy online. Utilizza un meccanismo chiamato onion routing, che prevede la crittografia dei dati in vari strati, come una cipolla. Thor è utilizzata per proteggere la privacy e navigare nel Dark web
7 Un exploit è un codice o un’azione che sfrutta una vulnerabilità in un sistema informatico per eseguire operazioni non autorizzate. Il cross-site scripting (XSS) è un tipo di attacco informatico in cui un codice dannoso viene inserito in un sito web affidabile. Questo codice viene poi eseguito nel browser degli utenti che visitano il sito, permettendo agli attaccanti di accedere a informazioni sensibili come cookie e token di sessione. BreachForum è un forum online utilizzato per la compravendita di dati rubati e altre attività illegali legate alla sicurezza informatica.
8 Le redroom sono camere virtuali dove circolano immagini di tutte le tipologie, violenza su minori in situazioni anche live, e dove gli stessi utenti possono interagire e dare istruzioni anche se dall’altra parte dello schermo.
9 I dropper e i loader sono componenti chiave nelle catene di infezione dei malware. Un dropper è un tipo di malware progettato per installare altri malware sul dispositivo della vittima. Un loader è simile a un dropper, ma con una funzione leggermente diversa. Dopo che il dropper ha rilasciato il malware, il loader si occupa di scaricare e caricare ulteriori componenti malevoli dal server di comando e controllo (C2). Questo permette agli attaccanti di aggiornare o modificare il malware in tempo reale
10  Il vishing è una forma di truffa che combina la voce (voice) con il phishing. I truffatori utilizzano telefonate o messaggi vocali per ingannare le vittime e ottenere informazioni personali sensibili, come numeri di carte di credito o dati di accesso. Spesso si spacciano per rappresentanti di istituzioni affidabili, come banche o enti governativi, per rendere la truffa più credibile.
11 Lo "spoofing" è un tipo di cyberattacco in cui un hacker si camuffa da entità legittima per imbrogliare altre reti informatiche. Viene usato per impadronirsi di dati, diffondere malware o superare dei controlli di accesso. Gli attacchi di e-mail spoofing sono fra i più diffusi e comportano spesso cose come la richiesta di dati personali o transazioni finanziarie.
12 Il grooming (dall’inglese “groom” – curare, prendersi cura) rappresenta una tecnica di manipolazione psicologica che gli adulti potenziali abusanti, utilizzano per indurre i bambini/e o adolescenti a superare le resistenze emotive e instaurare una relazione intima e/o sessualizzata.
13 Il Large Language Model è un tipo di intelligenza artificiale che comprende e genera testo in linguaggio naturale.

 

Perché bisogna temere le app cinesi e non solo tiktok

Stareste seduti su di una bomba con il detonatore nelle mani di qualcun altro?
Se la risposta è no allora considerate che continuare ad utilizzare determinate app potrebbe equivalere ad essere seduti su di una bomba della quale non abbiamo nessun controllo.
L’allarme non è recente, ma solamente è con lo scontro sempre più acceso tra USA e Cina sull’uso di Tick Tock in territorio Nord Americano che la preoccupazione su determinate applicazioni entra a gamba tesa nella vita di delle persone normali, e non solo degli addetti ai lavori.


Il problema del trattamento dei dati personali e della privacy
In Europa, ancor più che negli Stati Uniti, la privacy ed il trattamento dei dati è molto sentito. In effetti noi Europei abbiamo il regolamento più stringente, che implica sempre il consenso da parte dell’utente sulla raccolta e l’utilizzo dei dati e ne impone la chiarezza su quale tipo di utilizzo viene fatto dei dati raccolti e dove questi sono conservati ma, soprattutto, pone dei limiti sull’utilizzo che lo stato può fare dei dati che le aziende raccolgono.
Negli Stati Uniti la legislazione è molto più blanda: non esiste una legge federale sulla privacy generale, diversi settori sono regolati da leggi diverse (ad esempio il regolamento per le telecomunicazioni è differente da quello sulla salute o sui i servizi finanziari), il consenso non sempre necessario e viene messo in rilievo una maggiore enfasi sulla sicurezza dei dati rispetto alla loro privacy; da sottolineare che tra USA ed Unione Europea esisteva un accordo, chiamato “Privacy Shield”, che regolava il trasferimento dei dati personali tra i due, in via di sostituzione con il “EU-U.S. Data Privacy Framework1.
In Cina, la legge sulla protezione dei dati personali, che è entrata in vigore nel 2017 con il nome PIPL,  si ispira al GDPR europeo ma con alcune differenze: il PIPL si applica a tutte le organizzazioni che trattano dati personali di cittadini cinesi, indipendentemente da dove si trovano,  il consenso può essere implicito o esplicito e, per finire, è più focalizzato sulla sicurezza dei dati e sul controllo statale. Nel paese asiatico, quindi, il sistema della privacy è in mano allo stato che ne controlla ogni aspetto.
Dopo aver dato un rapido riassunto di come è considerata la privacy in Europa, Usa e Cina cerchiamo di capire perché l’utilizzo di certe App cinesi può essere un rischio, non solo per la privacy ma, ma anche per i nostri dispositivi finanche alla sicurezza nazionale.


TEMU e Grizzly Research LLC
ByteDange è un’azienda cinese con sede a Pechino specializzata in tecnologie internet. Tra le sue creazioni vi sono la piattaforma di notizie Toutiao, l’app chiamata Neihan Duanzi (fatta chiudere nel 2018 dalla censura del governo cinese) mentre tra le app acquisite compare la famosa piattaforma TikTok. Detiene anche delle partecipazioni azionarie di PDD Holding. Da sottolineare che, a detta sia di ByteDange che di PDD, le due aziende rimangono indipendenti.
Per chi non lo sapesse PDD Holding è l’azienda che nel 2022 ha lanciato la piattaforma di acquisti online Temu: una piattaforma di e-commerce che possiamo considerare equiparabile a Wish o Aliexpress più che ad Amazon o Ebay ma, a detta di chi l’ha provata, a differenza delle due concorrenti ha tempi di spedizione più brevi e prodotti di qualità superiore.
Importante è considerare che Temu nasce come miglioramento dell’ app di “social shopping” 2 PinDuoDuo che venne rimossa dal Google Play Store per mancanza di sicurezza (a detta di google sembra che installasse degli spyware negli smartphone). Alla chiusura dell’app buona parte del team che vi lavorava venne spostato da PDD a lavorare su Temu.
Visto questi precedenti, a settembre 2023, la società  Grizzly Research LLC pubblica una lunga ed interessante ricerca sull’app Temu basata, a dire della società di analisi, sulla decompilazione del codice sorgente (per la precisione della versione di Android ma il report contiene un breve esame anche dell’app per IOs).
Per correttezza c’è da sottolineare che il Report è risultato subito controverso: Grizzly Research LLC (come si legge sul sito di quest’ultima) “is focused on producing differentiated research insights on publicly traded companies through in-depth due diligence”(si concentra cioè nella produzione di report di aziende quotate in borsa) e i suoi reports sono sempre molto accurati ma, in questo caso, sebbene affermino di aver consultato diversi specialisti in cyber security, non ne viene citato nessuno specificatamente e questo ha fatto dubitare alcuni utenti entusiasti dell’app dell’accuratezza e veridicità della ricerca.
Prima di analizzare i punti più salienti da un punto di vista tecnico vorrei soffermarmi su un punto che Grizzly Research ha considerato importante: la così detta insostenibilità finanziaria del modello Temu.
Secondo alcuni analisti l’azienda perderebbe costantemente soldi nello spedire prodotti senza costi di spedizione e a così basso prezzo, anche nel caso di social shopping (la perdita stimata è di circa 30$ a ordinazione). Questo farebbe pensare che l’app abbia principalmente il compito di raccogliere iscritti e fare proliferazione in modo da poter vendere illegalmente dati rubati per sostenere un modello di business altrimenti destinato al fallimento. Ad accentuare questo dubbio il fatto che, nella fase di start up, vi erano incentivi aggiuntivi quali la possibilità di vincere un Play Station se si invitavano gli amici ad iscriversi e questi lo facevano, oltre altre offerte a prezzi veramente bassi.
Da un punto di vista tecnico le possibili vulnerabilità (se possiamo chiamarle così anziché vere e proprie trappole informatiche) evidenziate dal report sono parecchie. Tra queste le più preoccupanti sono la presenza della funzione runtime.exec(). Questa funzione (che nel codice sorgente è rinominata “package compile”) può creare nuovi programmi eseguibili, i quali non sono visibili alle scansioni di sicurezza prima o durante l’installazione dell’app, rendendo possibile a Temu di passare tutti i test per l’approvazione negli store di app. Sempre nel codice sorgente decompilato di Temu, ci sono riferimenti a permessi che non sono elencati nel file Android Manifest3 dell’app, il quale è la fonte standardizzata per controllare i permessi. Questi permessi non menzionati includono richieste per l’accesso a funzioni molto invasive come CAMERA, RECORD_AUDIO e ACCESS_FINE_LOCATION.
Un dubbio riguardo il codice è anche la richiesta da parte dell’app di verificare se, nel telefono sul quale è installata, siano presenti i permessi di root4. Molti utenti abilitano questa funzione del dispositivo per poter installare software al difuori dello store ufficiale o per personalizzare ulteriormente il proprio smartphone. Il fatto che un programma voglia verificare se il dispositivo abbia o meno questi permessi non ha nessun senso. Meno preoccupante è invece la presenza di codice offuscato (che viene comunemente utilizzato per proteggere il codice del programma in alcune parti proprietarie o che non si vuol far conoscere).
Un capitolo a parte riguarda la funzione Debug.isDebuggerConnected().  Questa funzione è presente anche in altre applicazioni (come ad esempio Amazon) e permette di verificare se il telefono entra in modalità debugging. Nell’articolo, il riferimento alla funzione si trova nella sezione che discute le caratteristiche di spyware/malware dell’app Temu; secondo il report di Grizzly Research questa funzione ha lo scopo di ostacolare o nascondere l’analisi dell’app e, molto probabilmente, per cambiare il comportamento della stessa se viene ispezionata dinamicamente da un analista. Questo è considerato un enorme segnale di allarme perché suggerisce che il software potrebbe cercare di evitare la rilevazione durante le scansioni di sicurezza automatizzate. Il report di Grizzly Research mostra molte altre criticità che a volte si intersecano anche con la complessità e poco chiarezza dei termini sulla privacy ed il loro consenso, nonché della complessità della richiesta ai permessi da parte dell’app quando si installa, uno per tutti la funzionalità di caricamento file basate su un server di comando collegato alla loro API us.temu.com, il che significa che una volta che un utente concede il permesso di archiviazione file all’app Temu, l’app sarà in grado di raccogliere qualsiasi file dal dispositivo dell’utente e inviarli ai propri server.


Il caso ByteDange e l’occidente
Il caso di ByteDange e Tick Tock è più controverso e si mescola alla percezione comune che si ha del social network, diventando un caso di scontro politico negli Stati Uniti, non solo tra Biden e Trump, ma anche tra Repubblica Popolare Cinese e la Camera dei Rappresentanti del Congresso Americano.
Già durante il suo mandato l’ex presidente degli Stati Uniti Donald Trump, nel 2020, ha cercato di vietare TikTok negli Stati Uniti, a meno che l’app non fosse stata venduta a un’azienda americana, sostenendo che la proprietà cinese della stessa avrebbe dato al governo autoritario di Pechino accesso alle informazioni personali degli utenti americani. L’app TikTok, negando queste accuse investì nella creazione di Project Texas, al fine di confinare i dati degli utenti americani su server statunitensi. A distanza di 4 anni, con la presidenza Biden, il problema si ripresenta solo che questa volta l’ex presidente Trump è contrario alla chiusura di TickTok negli USA.
Cerchiamo quindi di fare un po’ di chiarezza considerato che i motivi per i quali si sta tanto discutendo del pericolo rappresentato da TikTok sono parecchi.
Già nel 2020 il giornale The Washington Post in un articolo intitolato "TikTok privacy concerns grow after teen's videos are posted without her consent" raccontava la storia di Sarah (nome di fantasia trattandosi di una minorenne) una studentessa di 16 anni del New Jersey, che ha installato TikTok senza creare un account. La giovane studentessa ha quindi iniziato a guardare video e a creare delle bozze, senza però mai pubblicare nulla. Tuttavia, un giorno Sarah ha scoperto che alcuni dei suoi video erano stati pubblicati online senza il suo consenso: i video erano stati copiati da altri utenti e condivisi su altre piattaforme social, come Instagram e YouTube.
Ma il caso di Sarah non è un caso isolato: nel 2021, un’altra studentessa di 17 anni della California, Ashley, ha avuto un'esperienza simile. Ha installato TikTok e ha iniziato a creare video, ma non ha mai pubblicato nulla. Anche in questo caso, la ragazza, ha scoperto che alcuni dei suoi video erano stati pubblicati online da un altro utente che aveva creato un account falso con il nome di Ashley e aveva postato i suoi video senza il suo consenso.
Di casi analoghi ne sono stati segnalati molti e tutti evidenziano una serie di problemi legati alla privacy (TikTok non rende facile per gli utenti controllare chi può vedere i loro contenuti e come vengono utilizzati i loro dati) e all’eccessiva quantità di informazioni personali raccolte, tra le quali figurano quelle di geolocalizzazione, di navigazione  ed i dati biometrici che includono “faceprints” (impronte facciali) e “voiceprints” (impronte vocali)5.
ByteDange afferma che TikToka chiederà il consenso agli utenti prima di raccogliere queste informazioni biometriche ma che, tuttavia, ciò avverrà solo quando richiesto dalla legge, omettendo di specificare quale legge richieda il consenso. In pratica non è chiaro se, in stati come Illinois, Washington, California, Texas e New York, che hanno leggi sulla privacy biometrica questa verrà chiesta mentre in altri che non l’hanno non verrà chiesta. Altri dati ai quali TikTok accede comprendono la rete Wi-Fi a cui ci si collega, tutti i contatti memorizzati in rubrica, la funzione di registrazione audio e tutti gli appuntamenti inseriti nel calendario.
Effettuando uno screening con uno strumento tecnico di analisi per app, come quello dell’organizzazione senza scopo di lucro Exodus Privacy6, ci si accorge che TikTok installa una serie di tracciatori di proliferazione tra i quali (oltre al classico di analytics di Google  e quelli di condivisione con Facebook) quello di VKontakte, il principale social network della federazione Russa.
Sebbene tutte queste criticità sarebbero sufficienti a far, se non altro, aprire un’ inchiesta sull’app, il vero motivo per il quale la Camera dei Rappresentanti del Congresso Americano ha deliberato di chiudere TikTok nel territorio degli USA riguarda anche altre motivazioni tra le quali la gestione dell’algoritmo che presenta i video agli utenti: questo è progettato per essere altamente coinvolgente e può portare alla dipendenza e a danni alla salute mentale, soprattutto nei giovani (che ne sono i principali utilizzatori). Inoltre, ByteDange non è trasparente su come funziona il suo algoritmo e questo rende difficile per gli utenti capire come i loro contenuti vengono selezionati e presentati: algoritmo di TikTok è in grado di manipolare i contenuti che essi vedono, un fatto che potrebbe essere utilizzato per diffondere disinformazione, propaganda o per influenzare elezioni o referendum (da qua si può intuire perché l’ex presidente Trump che prima era contrario a TikTok adesso non vuole che venga oscurato).
Sebbene non vi siano prove concrete che l’app stia effettivamente utilizzando il suo algoritmo per danneggiare gli americani, le preoccupazioni della Camera sono sufficientemente gravi da aver spinto i suoi membri a votare una risoluzione per vietare l'app sui dispositivi governativi.
Le paure degli Stati Uniti non vanno assolutamente ignorate: va infatti ricordato che ByteDance ha una partnership strategica con il Ministero cinese della pubblica sicurezza che comprende anche la collaborazione su "attività offline" non specificate. D’altronde nel 2019, ByteDance ha formato joint venture con Beijing Time, un editore controllato dal comitato municipale del PCC di Pechino e, nel giugno 2022, ha collaborato con Shanghai United Media Group per lanciare un piano per sviluppare influencer nazionali ed esteri. L’influenza della censura della Cina è tale che nel aprile 2020, la Cyberspace Administration of China ha ordinato a ByteDance di rimuovere il suo strumento di collaborazione in ufficio, Lark (una piattaforma di collaborazione aziendale), perché poteva essere utilizzato per aggirare la censura di Internet.
Non bisogna, infatti, mai dimenticare che le aziende cinesi sono soggette a numerose leggi e normative che le obbligano a cooperare con il governo cinese e che, oltre a queste leggi, il governo cinese ha anche una serie di strumenti a sua disposizione per costringere le aziende a cooperare.
Ma se negli Stati Uniti TikTok non se la passa bene le cose non vanno meglio nel vecchio continente. L’ Europa ha multato l’azienda proprietaria del software per 45 milioni di euro per la violazione della privacy dei minori e per la mancanza di trasparenza. In particolare l’app, stando alle motivazioni dell’ammenda, ha raccolto illegalmente i dati di bambini di età inferiore ai 13 anni senza il consenso dei genitori, indirizzando a questi pubblicità mirate. La sanzione fa scalpore in quanto si tratta della più grande multa mai comminata dall'Unione Europea per una violazione del GDPR (General Data Protection Regulation). Oltre alla multa, però l'Unione Europea ha ordinato a TikTok di interrompere la raccolta illegale dei dati dei bambini, fornire agli utenti informazioni più chiare su come vengono utilizzati i loro dati e di rendere più facile per gli utenti modificare le proprie impostazioni sulla privacy.


Tencent (WeChat) ed il controllo del Governo Cinese
Il 30 November 2023 il Il NUKIB7 pubblica sulla sul suo sito una pagina di informazioni che mette in guardia sull’utilizzo dell’app WeChat di Tecent.
A differenza delle aziende viste precedentemente, sebbene sia una società privata, il governo cinese ha una partecipazione significativa in Tencent attraverso diverse entità statali e questo significa che ha un certo controllo sulla società e ne può influenzare le decisioni. Molti dipendenti dell’azienda sono membri del Partico Comunista Cinese (ovvero il governo) e quest’ultimo può censurare i contenuti su WeChat e ordinarne la rimozione determinate app o servizi.
L’allerta Sicurezza lanciata dal NUKIB riguarda essenzialmente il grande volume di dati che l’app raccoglie dagli utenti e il fatto che questi ultimi possono essere utilizzati per cyber attacchi mirati. Da quello che si legge nel rapporto dell’agenzia di sicurezza Ceca, il Bureau of Industry and Security8 degli USA segnala che i servizi di intelligence cinesi conducono operazioni di influenza contro gli interessi della Repubblica Ceca, con un’attività elevata nel paese e nello spazio cibernetico anche tramite l’app di Tecent.
È bene ricordare che WeChat è già stata bandita in India, Canada e alcuni stati degli USA e che nel 2023 i Paesi Bassi hanno emesso una raccomandazione per i dipendenti governativi di non utilizzare app esprimendo preoccupazione che il governo cinese la possa utilizzare per spiare i cittadini olandesi o per interferire nelle elezioni.
Il governo Indiano, invece, ha bandito WeChat (insieme ad altre 58 app cinesi) perché veniva utilizzata per diffondere disinformazione e propaganda anti-indiana. Il divieto di WeChat è avvenuto in un momento di tensione tra India e Cina a causa di un conflitto al confine himalayano. Sebbene le motivazioni del Governo Indiano riguardino la poca trasparenza e l’utilizzo dei dati dei cittadini indiani da parte della Cina, e che (a detta del governo di Nuova Deli) il blocco verrà rimosso non appena queste criticità saranno risolte, l’app in India risulta ancora bloccata.


Giochi politici o vera emergenza?
L’annuncio della Camera degli Stati Uniti ha fatto subito alzare la testa al Governo Cinese che ha dichiarato tramite il Ministro degli Esteri Wang Wenbin “Un paese che si vanta della libertà di parola e afferma di essere un’economia di libero mercato è disposto a usare il potere dello Stato per reprimere specifiche aziende. Questa è la vera ironia”. La vera ironia sta proprio nelle parole del ministro perché è bene ricordare che Facebook, Youtube, nonché la stessa TikTok nella versione internazionale, oltre a moltissime altre applicazioni sono bloccate in Cina.
Ma il Partito Comunista Cinese non si limita solamente a bloccare determinati siti, app o servizi  quali Netfix o  DropBox ma, attraverso un complicato sistema normativo e tecnologico chiamato “Great Firewall”9 monitorizza e censura tutto il traffico in entrata nel paese. Il sistema è molto complesso e meriterebbe da solo una trattazione separata ma, visto che questo non è lo scopo dell’articolo lo tralasceremo per ora.  Il motivo per il quale ne abbiamo accennato, a parte il fatto della doppia ironia delle accuse del ministro Wang Wenbin è che ci fornisce l’idea di come i social network ed internet siano considerati dal Governo Cinese: uno strumento atto a perseguire i propri fini e, proprio per questo motivo la maggior parte delle app che vengono da lì devono essere considerate come possibili “armi”.
Rifacendoci al precedente articolo “Elezioni Europee -e non- nell’era della post-verità e delle AI” possiamo riflettere di quale pericolo sia, non solo la falsa informazione, ma anche il fatto che i nostri dati, le nostre abitudini ed i nostri interessi siano nelle mani di regimi non democratici.
Pensiamo al caso della Brexit e di come il microtargheting10 operato da Cambridge Analytica abbia influenzato l’esito del referendum: in un primo momento l’azienda ha utilizzato i dati raccolti da Facebook per creare profili psicologici di milioni di persone. Questi profili sono stati poi utilizzati per indirizzare messaggi pubblicitari personalizzati agli elettori, con l'obiettivo di influenzare il loro voto.
Ma non solo questo! Cambridge Analytica ha identificato e preso di mira opinion leader11 e influencer sui social media, i quali sono stati poi utilizzati per diffondere messaggi pro-Brexit a un pubblico più ampio.
È appunto guardando indietro all’esperienza Brexit che dobbiamo preoccuparci della raccolta dei nostri dati e del loro utilizzo e conservazione da parte di potenze straniere, soprattutto in questo particolare momento storico.
Rimane poi un’ultima considerazione da fare: immaginate un dipendente del ministero della difesa o dei servizi segreti che ha un telefono cellulare compromesso sul quale una nazione straniera può installare qualsiasi applicazione a sua insaputa o che, quando è in ufficio collegato alla rete wi-fi, attraverso di essa avere accesso a tutti i file piuttosto che disabilitare i radar o i sistemi di intercettazione.
Uno scenario del genere veniva mostrato nella quinta stagione della serie televisiva “The Last Ship”: attraverso un telefono cellulare compromesso venivano disabilitati i sistemi di difesa della Marina  Militare Americana, permettendo ad una coalizione di forze straniere di annientare la maggior parte della forza navale USA.
Ma quello che ancora nel 2019 sembrava fantascienza oggi potrebbe essere uno scenario reale.



Riferimenti
1  Lo Scudo Europeo per la Privacy (EU-U.S. Privacy Shield) era un accordo tra l'Unione Europea e gli Stati Uniti che permetteva il trasferimento di dati personali dall'UE agli Stati Uniti senza ulteriori restrizioni. L'accordo si basava su un sistema di autocertificazione, in cui le aziende statunitensi che desideravano ricevere dati personali dall'UE dovevano impegnarsi a rispettare determinati principi di protezione dei dati. La CGUE ha invalidato lo Scudo europeo per la privacy perché ha rilevato che le leggi statunitensi sulla sorveglianza non garantivano un livello adeguato di protezione dei dati personali. La Commissione Europea e gli Stati Uniti hanno annunciato un nuovo accordo sul trasferimento di dati, denominato "EU-U.S. Data Privacy Framework". Il nuovo accordo dovrebbe fornire garanzie più forti per la protezione dei dati personali trasferiti dall'UE agli Stati Uniti.
2  L’idea di social Shopping alla base di Pinduoduo prevede prezzi più vantaggiosi per chi decide di fare la spesa in compagnia: la piattaforma mette a disposizione ogni singolo prodotto a due prezzi differenti. Il primo è più alto e rappresenta il costo nel caso in cui l’utente decidesse di acquistare in solitaria; il secondo invece, più basso, rappresenta la cifra che dovrà essere sborsata per accaparrarselo nel caso di partecipazione del numero di utenti richiesto. Al termine stabilito per la vendita, di norma 24 ore, la piattaforma verifica il raggiungimento della soglia: in caso positivo l’acquisto risulta effettuato e spedito entro 48 ore, con l’acquirente che ha fatto partire il gruppo di acquisto che riceve il prodotto gratuitamente a casa. In caso negativo, l’acquisto viene annullato e gli utenti ricevono il rimborso della somma versata.
3  Ogni applicazione Android dev'essere accompagnata da un file chiamato AndroidManifest.xml nella sua direcotry principale. Il Manifest raccoglie informazioni basilari sull'app, informazioni necessarie al sistema per far girare qualsiasi porzione di codice della stessa. Tra le altre cose il Manifest presente in ciascuna app del Play Store si occupa di dare un nome al package Java dell'applicazione, che è anche un identificatore univoco della stessa, descrive le componenti dell'applicazione (attività, servizi, receiver, provider, ecc.), nomina le classi e pubblica le loro "competenze", determina quali processi ospiteranno componenti dell'applicazione, dichiara i permessi dell'app, e i permessi necessari alle altre app per interagire con la stessa, dichiara il livello minimo di API Android che l'app richiede e, in fine, elenca le librerie necessarie all'app.
4  L’attività di rooting è un processo informatico attraverso il quale un utente normale può ottenere il controllo completo del dispositivo, ripetendo azioni solitamente messe in campo dagli sviluppatori. In questo modo diventa possibile variare alcuni parametri, come le prestazioni, modificare il sistema operativo o agire sul dispositivo da remoto, per fare alcuni esempi.
5  TikTok non raccoglie direttamente dati biometrici come impronte digitali o scansioni del viso, tuttavia, può raccogliere informazioni biometriche dai contenuti degli utenti, come Impronte facciali (TikTok può utilizzare il riconoscimento facciale per identificare le persone nei video e per applicare filtri ed effetti e può anche essere utilizzata per creare avatar 3D basati sul viso dell'utente). Le impronte vocali che raccoglie TikTok le può utilizzare il riconoscimento vocale per identificare le persone che parlano nei video e per aggiungere didascalie automatiche. L'app può anche essere utilizzata per creare effetti vocali e per personalizzare la pubblicità. TickTock utilizza l'analisi del corpo per identificare la forma del corpo, la postura e i gesti degli utenti nei video. Anche in questo caso può anche essere utilizzata per creare effetti speciali e per personalizzare la pubblicità.
6  Exodus privacy è uno strumento potentissimo in grado di analizzare, alla ricerca di traccianti e permessi richiesti, praticamente ogni app presente su Google Play o store OpenSource F-Droid
7  Il NUKIB (National Cyber and Information Security Agency) è l'agenzia nazionale per la sicurezza informatica e cibernetica della Repubblica Ceca.
8  Il “BIS” o  Bureau of Industry and Security, un’agenzia del Dipartimento del Commercio degli Stati Uniti. Questa agenzia è responsabile della regolamentazione delle esportazioni commerciali e di sicurezza, comprese le tecnologie dual-use e i beni militari. Il BIS gioca un ruolo chiave nel controllo delle esportazioni per motivi di sicurezza nazionale e interessi di politica estera.
9  Il Great Firewall cinese, letteralmente "Grande Muraglia del fuoco", è un sistema normativo e tecnologico usato dal governo cinese per monitorare, filtrare o bloccare i contenuti internet accessibili dagli utenti all'interno del paese. È nato come progetto per separare in modo selettivo il cyberspazio cinese dal mondo esterno, evitando che i cittadini cinesi accedano a informazioni ritenute dannose o potenzialmente destabilizzanti per gli interessi del paese.
10 Il microtargeting è una forma di pubblicità online profilata che analizza i dati personali –  come le specifiche ricerche online dell’utente, i dati di navigazione o il comportamento online – al fine di identificare gli interessi dell’utente con lo scopo di influenzare le sue azioni, portandolo, ad esempio, a cliccare su un determinato banner perché di suo interesse.
11 L'opinion leader è un utente attivo dei media che interpreta il significato o il contenuto dei messaggi mediatici per utenti medio-bassi dei media. Tipicamente l'opinion leader è tenuto in grande considerazione da coloro che accettano le sue opinioni.




Bibliografia
Norme per la protezione dei dati personali all’interno e all’esterno dell’UE.
Questions & Answers: EU-US Data Privacy Framework
GRIZZLY RESEARCH "We believe PDD is a Dying Fraudulent Company and its Shopping App TEMU is Cleverly Hidden Spyware that Poses an Urgent Security Threat to U.S. National Interests"
Exodus privacy
NUKIB "Mobile App Security Threat Alert: WeChat by Tencent"
Lista siti e app bloccati in Cina

 

Elezioni Europee (e non) nell’era della post-verità e delle AI.

A settembre 2023 Vera Jourova, commissario per i valori e la trasparenza dell'Unione Europea, ha dichiarato pubblicamente che X (ex Twitter) è la piattaforma con il “più alto rapporto di post di dis/misinformazione” (largest ratio of mis/disinformation posts) tra le piattaforme che operano anche in Unione Europea.  Nulla di strano in questo visto che, da quando è stata acquistata da Musk, la storica piattaforma ha attuato una serie di cambiamenti culminati con la decisione di ritirarsi dagli impegni di rispettare il codice di condotta volontario sulla disinformazione del 2022.
A pochi mesi dalle elezioni europee c’è da chiedersi quanto la disinformazione e la propaganda possano influenzare l’esito degli scrutini e quanto e quali attori ne possono trarre beneficio.

Gli attori

Una delle preoccupazioni maggiori è sicuramente legata all’attuale situazione geopolitica, in particolar modo alla guerra Russo-Ucraina: è di pochi giorni fa (gennaio 2024) la notizia, riportata da Der Spiegel che gli analisti del ministero degli Esteri tedesco hanno scoperto una campagna di disinformazione pro-Russia su X attuata tramite 50mila account falsi. Questo a pochi giorni dalla pubblicazione del report europeo “2nd EEAS Report on Foreign Information Manipulation and Interference Threats” e dalla dichiarazione del World Economic Forum, che sottoline quanto la disinformazione, anche con l’aiuto dall’intelligenza artificiale, sia la principale minaccia a livello globale nell’immediato futuro.
In particolare il report dell’EEAS evidenzia che l’Ucraina è il principale bersaglio delle attività di FIMI (Foreign Information Manipulation and Interference), soprattutto da parte della Russia, che usa le usa  come strumento nella sua guerra di aggressione, ma evidenzia anche la diversità dei bersagli di questi attacchi che includono istituzioni come l’UE o la NATO, i media classici, singoli individui come politici o celebrità, e gruppi sociali come la comunità LGBTIQ+. Sempre secondo questo report, oltre all’Ucraina i paesi più bersagliati sono risultati Stati Untiti, seguiti da Polonia, Germania, e Francia.
La Russia, sembra quindi essere il principale attore (direttamente o indirettamente) di campagne di disinformazione in occidente; d'altronde la campagna di propaganda Russa (sempre secondo il report EEAS pp.12-13) era iniziata già prima dell’invasione dell’ Ucraina.

Quali pericoli per le elezioni.

Già nel 2017, dopo le elezioni a presidente degli Stati Uniti di Donald Trump, un rapporto dell'Australian strategic policy institute (Securing Democracy In the Digital Age) aveva dimostrato come le fakenews possono condizionare gli esiti delle urne elettorali.
Secondo lo studio sopra citato, le settimane prima delle elezioni del 2016, un grande flusso di false informazioni, circolate in rete, hanno generato dubbi sulla credibilità dei media generando confusione e, soprattutto, indecisione tra gli elettori. Stando a quanto si evince, infatti, quello che conta maggiormente è quello che chiamano auto-percezione degli utenti: non è necessario che la notizia o il post di disinformazione convinca tutti, basta che sia in grado di generare un certo livello di confusione in modo –come nel caso delle elezioni americane del 2016 – da screditare i media tradizionali e generale indecisione tra gli elettori.
Ma quello delle elezioni USA non è il solo caso eclatante: sempre nel 2016, in occasione del referendum tra i cittadini del Regno Unito che erano chiamati all’uscita dall’ Unione Europea la disinformazione ha giocato un ruolo importante.
Il film per la televisione del 2019 “ Brexit: the incivil war” descrive come  Dominic Cummings (considerato l’ architetto della Brexit) decide di usare i social media e internet come mezzi di marketing piuttosto che la campagna tradizionale. In particolare (come fa notare la giornalista Carole Cadwalladr), tramite una serie di annunci fuorvianti sul social network Facebook, gli elettori più vulnerabili ed incerti, furono convinti a votare per il leave, anche grazia al lavoro della società Cambridge Analytica che aveva raccolto i dati personali di 87 milioni di account Facebook senza il loro consenso e li aveva usati per scopi di propaganda politica.
Da allora le istituzioni europee hanno iniziato una serie di riforme (soprattutto in fatto di privacy) che hanno portato a creare regole per impedire che casi simili si possano ripetere ma non sembra essere sufficiente: la disinformazioni può utilizzare diversi metodi per influenzare le elezioni di un paese o all’interno della UE. Attualmente sembra che il metodo più utilizzato sia quello di creare o amplificare false narrative su temi sensibili o controversi, come la migrazione, i diritti LGBT+, il cambiamento climatico, i diritti umani, la salute, ecc. In questo modo si possono indurre gli elettori a votare in base a informazioni errate o incomplete, o a perdere fiducia nelle istituzioni democratiche e nei media, proprio come è accaduto durante l’epidemia di Covid-19 quando la disinformazione sui vaccini ha indotto molte persone a non vaccinarsi e ha creato il movimento no-vax.br />

AI nuovo nemico

Ma oggi, alla vigilia di una serie di importanti appuntamenti elettorali sembra essere quello generato dall’utilizzo improprio del’ intelligenza artificiale il pericolo che potrebbe più di ogni altro minare la base delle istituzioni democratiche: tramite l’utilizzo di AI si possono non solo generare chatbot ma anche profili falsi che, a loro volta, generano contenuti che sembrano veri; oppure, si si ha la possibilità di creare post con video di personaggi famosi ai quali viene fatto dire quello che si vuole.
Sebbene i controlli presenti sui social - riescono ad impedire (quasi sempre) la pubblicazione di questi post, capita che talune volte, alcuni contenuti, riescano a sfuggire per qualche minuto (o qualche ora) alla censura, così da venir distribuiti in rete e condivisi. In questo caso si parla di DeepFake e di questo tipo di disinformazione, che sfrutta la figura di politici più o meno importanti, ne abbiamo parecchi come nell’esempio del video in cui il presidente degli Stati Uniti Joe Biden sembra dire frasi incoerenti e confuse, creato per screditarlo durante la campagna elettorale del 2020 e che per molti è ancora considerato vero, oppure il video nel quale il presidente francese Macron annuncia l’uscita della Francia dall’Unione Europea.
Inutile dire come questo tipo di propaganda sia pericolosa in una democrazia, specialmente in periodo di elezioni e, sebbene l’Unione Europea cerchi di dotarsi di regole per poter discernere il vero dal falso (
vedi il mio precedente articolo:”Questo articolo non è stato scritto da un AI!”) il pericolo esiste ed è reale.

Come possiamo difenderci?

Il 2024 vedrà i cittadini di tutto il mondo chiamati a esercitare il diritto di voto in almeno 83 elezioni, comprese le elezioni del Parlamento europeo per i 27 Stati membri dell'UE. Il rapporto EAS, in vista di quest’importante processo democratico, propone delle risposte nel caso specifico delle FIMI durante i processi elettorali. Inutile dire che il passo più importante è quello di rafforzare la resilienza della società tramite campagne di sensibilizzazione (la rai sta già attuando questa pratica tramite degli spot) e l’alfabetizzazione informatica ed informativa.
Ma sensibilizzare e alfabetizzare potrebbe non essere sufficiente così si suggerisce anche di attivare misure legate all’azione esterna dell’UE, tra cui la cooperazione internazionale, il meccanismo di risposta rapida del G7 (la bozza dei questo meccanismo era stata proposta già nell’incontro del 2021) e  le sanzioni contro gli organi di informazione controllati dal Cremlino.
Tutto questo sarà sufficiente? Forse no, ma noi come comuni cittadini possiamo fare quello che abbiamo ripetuto da anni su queste pagine riguardo la disinformazione: non lasciare che i nostri bias cognitivi condizionino le nostre valutazioni, approfondire la notizia, cercarne la fonte, e così via.
Gli stati hanno invece la maggior responsabilità e, visto che è impossibile impedire l’accesso ad un sito che ha i server all’estero (le VPN permettono di baypassare quasi ogni tipo di blocco del genere) dovrebbero iniziare a considerare i social network responsabili delle notizie che vengono diffuse tramite i loro canali e, visto che per società come X, Facebook, eccetera, quello che conta sono i profitti prima di tutto, iniziare a sanzionare pesantemente nel caso vi siano evidenti e massicce forme di disinformazione che possano pregiudicare non solo lo svolgimento regolare delle elezioni, ma anche la normale vita politica di un paese.

 

 

Bibliografia:


- European Union commissioner blasts X over disinformation track record | CNN Business
- Codice di condotta sulla disinformazione 2022 | Plasmare il futuro digitale dell'Europa
- EEAS-2nd-Report on FIMI Threats-January-2024_0.pdf (europa.eu)
- Desinformation aus Russland: Auswärtiges Amt deckt pro-russische Kampagne auf - DER SPIEGEL
- Securing Democracy In the Digital Age
- Carole Cadwalladr: Facebook's role in Brexit -- and the threat to democracy | TED Talk
- Brexit: The Uncivil War (film Tv 2019)

 

Hate speech online

In italiano il termine “Hate speech” è tradotto con le parole “incitamento all’odio” ma, il vero significato di queste due parole, è molto più profondo e concerne aspetti della vita che trascendono quello che è il solo comportamento online. Le parole che vengono espresse nell‘ Hate speech sono infatti dei veri e propri discorsi offensivi rivolti a un gruppo o ad un singolo individuo, sulla base di caratteristiche intrinseche, sessuali o religiose e, la maggior parte delle volte, questi discorsi sono basati su degli stereotipi.
L’utilizzo dei media per incitare all’odio verso delle minoranze o dei gruppi non è una novità dell’era di internet, basti pensare ai “Protocolli dei Savi di Sion” che hanno dato origine ai vari pogrom tra la fine del ‘800 ed i primi anni del ‘900, oppure all’utilizzo della propaganda (sempre antisemita) operata  dal regime Nazista per giustificare l’Olocausto.
Alla fine degli anni ’90 del XX secolo il fenomeno dell’ “Hate Speech” e dei diritti civili nel cyberspazio iniziò ad essere dibattuto dalla giurisprudenza statunitense con una certa preoccupazione ed un grande senso di urgenza.
Nei paesi democratici, i media definiti tradizionali, hanno da tempo adottato dei codici deontologici atti a impedire l’utilizzo dell’incitamento all’odio, così come i singoli stati e le istituzioni nazionali e sovranazionali hanno iniziato, a partire dal primo decennio del XXI secolo, ad attuare delle leggi e delle riforme atte a contenere quello che, a tutti gli effetti, può essere considerato un reato.
In particolare, nell’ultimo decennio, l’attenzione dei vari legislatori si è focalizzata sull’uso di un linguaggio d’odio verso gruppi etnici, minoranze, singole persone o categorie (giornalisti, magistrati, poliziotti, ecc.) nell’ambito dei social media e del mondo internet: infatti dato che il cyberspazio offre libertà di comunicazione e di esprimere le proprie opinioni liberamente, gli attuali social media vengono spesso utilizzati in modo improprio per diffondere messaggi violenti, commenti e discorsi che incitano all’odio.

Un primo passo
Nel maggio del 2016 Facebook, Microsoft (per quanto riguarda i servizi ai consumatori da loro ospitati), Twitter e YouTube hanno sottoscritto un codice di condotta per contrastare la diffusione di contenuti che incitano l’odio in Europa. Nel 2018 anche Instagram e Google+ (non più attivo) aderirono all’accordo a dimostrazione di quanto le piattaforme online prendano in considerazione questo fenomeno.
Riassumendo brevemente il codice di condotta scopriamo che impone a tutte le società informatiche firmatarie norme che vietano agli utenti di postare contenuti che incitano alla violenza o all'odio ai danni di gruppi protetti; come conseguenza, tutte le piattaforme hanno aumentato considerevolmente il numero di persone che monitorano e esaminano i contenuti. Secondo alcuni test fatti dalla Commissione Europea già nel 2018 la maggior parte delle società firmatarie  rimuovono in media l’89% dei contenuti segnalati entro le 24 ore o ne bloccano l’accesso in attesa di ulteriori verifiche.
Visto che il codice di condotta integra, a livello giuridico, quanto contenuto nel “Quadro 2008/913/GAI del Consiglio, del 28 novembre 2008 , sulla lotta contro talune forme ed espressioni di razzismo e xenofobia mediante il diritto penale”,  tutte le società che hanno aderito al codice di condotta hanno designato rappresentanti o uffici locali nei vari paesi, al fine di facilitare la comunicazione e la cooperazione tra le società e le autorità nazionali: il “quadro 2008/913/GAI”  impone che gli autori di reati di illecito incitamento all'odio, siano essi online o offline, siano perseguiti in modo efficace.
Va infine segnalato che, ad oggi, la maggior parte delle segnalazioni non vengono fatte da altri utenti, ma da sistemi di AI automatici che talvolta non riescono a contestualizzare una discorso o una parola e generano anche dei falsi.

Tipi di odio online più diffusi
Dobbiamo distinguere due tipi di incitamento all’odio: quello indirizzato a dei gruppi o quelli ad una singola persona. Tra quelli in gruppi risultano più evidenti alcuni sottogruppi.
- L’incitamento all'odio religioso online è un tipo di “Hate speech” che è definito come l'uso di parole infiammatorie ed un linguaggio settario per promuovere l'odio e la violenza contro le persone sul in base alla loro appartenenza religiosa.  A livello mondiale la religione più soggetta a questo tipo di odio è l’Islam: i contenuti anti-islamici si esprimono lungo un ampio spettro di strategie discorsive, in cui le persone giustificano l’opposizione all’Islam basata principalmente sulle azioni terroristiche dei musulmani in diversi paesi. L’hashtag #StopIslam è stato utilizzato per diffondere discorsi di odio razziale e, la disinformazione diretta verso l’Islam e i musulmani, è andata avanti su Twitter dopo gli attacchi terroristici del marzo 2016 a Bruxelles
- Il razzismo online è un altro tipo di razzismo indirizzato a dei gruppi identitari e spesso si identifica con la xenofobia. Pur non essendo un fenomeno nuovo il razzismo, spostato online, acquista maggiore forza dato che nel buio della propria stanza gli utenti del web hanno meno paura ad esprimere le loro idee.
- L’odio politico, quando espresso online, ha la stessa forza e  “cattiveria” che si trova nell’odio raziale e, talvolta, si incrocia: in Gran Bretagna, i tweet dopo il referendum sulla “Brexit”, sono stati seguiti da un aumento degli episodi islamofobici. Questi sentimenti anti-islamici erano legati alla religione, all'etnia, alla politica e al genere, promuovendo la violenza simbolica.
Spesso l’odio politico e di genere si mescolano arrivando a conseguenze catastrofiche come nel caso della deputata presso la Camera dei Comuni del Regno Unito Jo Cox, alla quale è stata intitolata la “Commissione sull’intolleranza, la xenofobia, il razzismo e i fenomeni di odio”, voluta dall’allora presidente della camera Laura Boldrini e  dalla quale risulta che le donne, in particolare, sembrano essere le prime vittime dell’odio online.
- L’odio di Genere è un tipo d’odio che è in crescita online. Il progetto italiano “Italian Hate Map” (nel 2018), ha analizzato 2.659.879 Tweet dove le donne sono state il gruppo più insultato,  seguite da gay e lesbiche.
Moltissime donne che hanno blog o sono personaggi pubblici hanno sofferto esperienze negative online che non solo riguardano commenti offensivi ma anche stalking, troll, minacce di  stupro, minacce di morte, spiacevoli incontri offline, intimidazioni, discredito, estrema ostilità nel contesto forma di sessismo digitale nelle chat room o nelle sezioni dei commenti.
Sempre nei crimini d’odio di genere compaiono quelli commessi nei confronti delle comunità Lgbt+. Emblematico è l’esempio dell’omicidio perpetrato in Slovacchia nell’ottobre del 2022 quando un 19enne spara davanti ad un bar frequentato da membri della comunità gay uccidendo due persone. È spaventoso che suoi social il killer avesse pubblicato post antisemiti ed omofobi ma, ancora più spaventoso, fu che a seguito di questa aggressione diversi tweet sono stati fatti in sostegno del ragazzo e contro la comunità Lgbt+.
Quando parliamo di odio online verso una singola persona, solitamente, l’ ”hate speech” non si limita ad attaccare un soggetto in quanto tale ma in quanto appartenente anche ad un gruppo. Ecco che la giornalista è attaccata perché giornalista e perché donna, il politico perché gay e perché appartenente ad una determinata area politica o il compagno di scuola viene deriso nella chat perché timido e perché magari non è italiano.
Tra i tipi di odio indirizzati ad una singola persona spicca Il Cyberbullismo. Questo fenomeno, che colpisce principalmente giovani e adolescenti, non è altro che l’evoluzione del classico bullismo ma che risulta amplificato nel mondo virtuale dall’eco mediatico dato da una platea di utenti ampia come può essere quella del web.
Una ragazza o un ragazzo che in classe, in palestra o comunque in un gruppo sociale chiuso, viene preso in giro per il suo modo di comportarsi o perché magari timido e impacciato, attraverso i social network subisce le stesse angherie che subisce nel gruppo ma, adesso, sono  proiettate nel mondo virtuale e quindi ad un pubblico più ampio. Negli ultimi anni sono state migliaia le segnala di questo tipo di odio che ha portato, in alcuni casi, alla morte del soggetto bullizzato.

Chi sono gli odiatori online?
Al di là di gruppi nati per diffondere odio e disinformazione con specifiche finalità politiche o destabilizzanti chi sono i così detti haters o “leoni da tastiera”? 
Sono principalmente persone che presentano una mancanza di empatia e spesso anche di cultura e conoscenza (Effetto Dunning-Kruger), che hanno difficoltà a relazionarsi con gli altri, a sostenere confronti e discussioni costruttive. Vivono la maggior parte della loro vita in una ristretta cerchia di amicizie e conoscenze creando così una echo-chamber per le loro idee. La possibilità di nascondersi dietro uno schermo dà a queste persone, subdole e vigliacche, la forza di esprimere l’odio e la frustrazione che si portano dentro. Sono persone che se incontrate nel mondo reale avrebbero tutt’altro comportamento ma nell’apparente anonimato del web danno sfogo a tutta la loro aggressività.
Spesso la disinformazione e l’odio online vanno di pari passo: forti dell’idea che “uno vale uno”, gli haters si sentono incoraggiati ad esprimere le loro idee senza la necessità di motivarle (la maggior parte delle volte non hanno una motivazione da dare) ma facendole valere con il puro odio che di manifesta nell’utilizzo di parole ed espressioni contro un gruppo sociale, religioso o contro una giornalista (la maggior parte dei giornalisti colpiti dall’odio in rete sono donne!) solo per il fatto di essere donna.
Secondo una ricerca del 2018 “Internet Trolling and Everyday Sadism: Parallel Effects on Pain Perception and Moral Judgment”, la personalità dei leoni da tastiera a tre componenti:  il narcisismo, la psicopatia e  il machiavellismo.
Il primo elemento si caratterizza per senso di importanza e  superiorità, il bisogno di lusinghe e di riconoscimento nonché l’incapacità di accettare le critiche; la psicopatia, invece, riguarda l’impulsività, la scarsa empatia, nonché la mancanza di rimorso per le proprie azioni e la mancanza di  compassione verso il soggetto del loro attacco. Infine, per machiavellismo, si considera una personalità manipolativa, fredda con scarso senso morale e tendente all’inganno.
Gli haters hanno anche una grande componente sadica: dalle loro azioni traggono piacere nel farle e un senso di potenza (che nella vita reale non hanno) dall’aver arrecato danno agli altri.

Come comportarsi e come proteggersi dagli haters online?
Ci sono vari modi di comportarsi difronte a situazioni di odio online e, a seconda della gravità e frequenza del fatto vanno prese in considerazione l’una piuttosto di un’altra.
- Ignorare e restare in silenzio: questo metodo è forse il più facile e spesso da buoni risultati in quanto, dopo poco, l’haters si stanca e cerca un altro soggetto su cui indirizzare le sue campagne d’odio.
- Rispondere con cortesia e precisione alla critica, usando un tono neutro. Questo metodo potrebbe sembrare facile ma, non sempre da dei buoni risultati e spesso si genera una discussione interminabile che dà forza al leone da tastiera che ci sta attaccando.
- Eliminare e bloccare la persona. Semplice, veloce e indolore quest’azione ci libera da tanta fatica e arrabbiature. Risulta forse la soluzione migliore da attuare.
- Segnalare, denunciare: questo metodo è da considerare solo in casi estremi e per fatti veramente gravi quali minacce, diffamazione o insulti tesi a ledere la dignità personale o anche nel caso di cyberbullismo.

Considerazioni
Ricorrendo a parole, immagini e suoni, l’hate speech può mirare sia a disumanizzare e sminuire i membri di un certo gruppo, ritraendoli come sgradevoli e sgraditi, sia a rafforzare il senso di adesione al proprio gruppo egemone (e in pericolo, ci stanno facendo scomparire, vogliono che pensiamo tutti in maniera uguale, ecc…). Tramite l’hate speech si possono spostare le idee da un piano puramente virtuale ad uno reale con conseguenze a volte drammatiche.
Quando di parla di hate speech è importante tener conto che non è facile tracciare una linea che separa l’odio d’espressione dalla libertà di espressione: non si tratta di distinguere tra bianco e nere ma tra sottili linee di grigio.
Per finire dobbiamo tener conto che bisogna impedire che le piattaforme social diventino gli unici regolatori della libertà d’espressione online, soppiantando il ruolo dell’autorità pubblica. Un esempio è quello accaduto il 9 settembre del 2019, quando Facebook ha chiuso gli account del partito italiano di estrema destra Casapound perché non allineati alla policy del sito contro l’incitamento all’odio. Con l’ordinanza n. 59264/2019 il tribunale civile di Roma ha accolto il ricorso di Casapound e ha ordinato a Facebook la riattivazione immediata del profilo, sostenendo che l’esclusione del movimento di estrema destra dal social implicasse l’esclusione anche dal dibattito politico di quest’ultimo. Infine nel dicembre 2022, una nuova sentenza del tribunale di Roma ha riconosciuto il diritto esercitato da Meta a chiudere le pagine di CasaPound Italia aperte su Facebook. Abbiamo quindi visto un rimbalzare di decisioni su quello che era da fare ed un conflitto tra la società che gestisce il servizio social e la Giustizia Italiana su chi avesse potere decisionale.
L’hate speech è un fenomeno dannoso e pericoloso sia per la singola persona che viene attaccata che per i gruppi religiosi/etnici/politici/di genere che possono subire discriminazioni, e verso i quali si può generare una campagna d’odio degna dei regimi totalitari degli anni ’30 del XX secolo. È quindi sempre più importante che vi sia un lavoro di sinergia tra social network e governi per gestire e legiferare in maniera corretta, riaffermando il potere decisionale delle autorità pubbliche rispetto a quello delle singole piattaforme che, spesso, prendono decisioni arbitrarie.
Altrettanto importante che si continui a fare campagne di sensibilizzazione nelle scuole e nei media, sia tradizionali che no, affinché sempre più persone siano sensibilizzare sul problema e imparino la differenza tra libertà di espressione e odio.
Bisogna, infine,  ripensare alla rete internet come un nuovo spazio di democratizzazione digitale dove vengono rispettati e tutelati i diritti individuali come lo sono nella vita reale: la rete deve passare da vettore polarizzante di idee a strumento per la circolazione ed il consolidamento di conoscenza.

 

Bibiliografia:
Contrastare l'illecito incitamento all'odio online: l'iniziativa della Commissione registra progressi costanti, con l'adesione di ulteriori piattaforme”, Gennaio 2018, Commissione Europea.
Relazione finale della Commissione ‘Jo Cox’ sull'intolleranza, la xenofobia, il razzismo e i fenomeni di odio”, Camera dei deputati
Risoluzione del Parlamento europeo del 20 ottobre 2022 sull'aumento dei reati generati dall'odio contro persone LGBTIQ+ in Europa alla luce del recente omicidio omofobo in Slovacchia”, Gazzetta ufficiale dell’Unione europea, 20 ottobre 2022.
Elsevier: “Internet, social media and online hate speech. Systematic review”, Sergio Andres Castano-Pulgarín, Natalia Suarez-Betancur, Luz Magnolia Tilano Vega, Harvey Mauricio Herrera Lopez, 2021
Hate speech review in the context of online social networks”, Naganna Chetty , Sreejith Alathur, National Institute of Technology Karnataka, Surathkal, India, 2018.
Internet Trolling and Everyday Sadism: Parallel Effects on Pain Perception and Moral Judgment”, Journal of Personality n.87, Aprile 2018, Erin E. Buckels, Paul D. Trapnell, Tamara Andjelovic, Delroy Paulhus (University of British Columbia)


Questo articolo non è stato scritto da un AI!

Ad aprile di questo stesso anno avevo scritto un articolo dove parlavo dell’intelligenza artificiale e di come vi fossero paure (talvolta infondate) riguardo questa nuova tecnologia.
A distanza di qualche mese, dopo che il garante per la privacy ha rimosso il blocco all’utilizzo di ChatGPT e che l’unione europea ha licenziato il testo “AI ACT”, ho deciso di tornare a parlare di Intelligenza Artificiale generativa ma da un punto di vista più “umano”.
Visto che sempre più spesso viene utilizzata l’AI per generare contenuti mi sono chiesto quanto questi contenuti siano realmente di qualità e fino a che punto siano difficili da riconoscere da quelli creati da esseri umani.
L’utilizzo che sto facendo dei verbi “generare” e “creare” in riferimento, con il primo alle intelligenze artificiali generative e con il secondo all’ingegno umano, non sono per nulla casuali. Sono, infatti, profondamente convinto che il processo di creazione sia tipico dell’essere umano e della sua consapevolezza di essere un individuo unico e pensante; il cartesiano “Cogito ergo sum” è, a mio avviso, un processo mentale solamente umano che le AI non potranno mai raggiungere.


I test
Ho deciso quindi di fare una serie di esperimenti: ho chiesto a due AI gratuite (ChatGPT 3.5 e il Chatbot di Skype) di creare tre articoli su specifici argomenti. Come base per due di essi ho deciso di utilizzare due articoli che avevo scritto io in precedenza (“Il Metaverso Evoluzione Della Realtà Virtuale E Di Internet.” e “Coding Nelle Scuole: Il Bambino Impara A Pensare”), aggiungendo per l'ultimo articolo un argomento difficile e particolare per un AI.
I risultati dell’interrogazione sono disponibili a questo
LINK .

Per prima cosa ho dovuto istruire su quali argomenti volevo che venissero trattati in modo da avere dei risultati che assomigliasse a quelli che avevo creato io o che, almeno, utilizzassero gli stessi spunti e riferimenti nello svolgere il compito. La prima richiesta è stata: Scrivi un articolo dal titolo: Il Metaverso evoluzione della realtà virtuale e di internet, parlando della storia della realtà virtuale partendo dal Sensorama, passando per il powerglow della Mattel, parlando del SuperCockpit di Tom Zimmermann e Jaron Lainer, della webcam LG LPCU30. Fare riferimento alla letteratura fantascientifica della cultura Cyber Punk dei romanzi come “Neuromante” o “Aidoru” di William Gibson Utilizzare come fonti: Linda Jacobson, “Realtà Virtuale con il personal Computer”, Apogeo, 1994, Ron Wodaski e Donna Brown, “Realtà virtuale attualità e futuro”, Tecniche Nuove, 1995. Cita le bibliografie e le pagine delle bibliografie.
Il riferimento alla webcam LG LPCU30 era voluto in quanto, oltre ad essere stata una delle prime webcam USB, era accompagnata da una serie di software che permettevano di far interagire l’utente con lo schermo tramite piccoli giochi di realtà virtuale. Inutile dire che nessuna delle due IA l’ha specificato nell’articolo dato che solo chi ha potuto provarla è a conoscenza di questo.
Gli articoli sono abbastanza simili, semplici, concisi e si limitano ad una banale esposizione dei fatti con una conclusione altrettanto banale e scontata. Sembra quasi di leggere un tema scolastico di un ragazzino dei primi anni di liceo.
Nota importante: mentre ChatGPT si limita a citare come bibliografia solamente i libri che ho messo io come riferimento, l’Ai di Microsoft non solo cita i medesimi testi con riferimento specifico alle pagine consultate ma amplia la bibliografia con altri sei testi.

Per il secondo test ho deciso di essere più preciso ed ho chiesto esplicitamente di allargare la ricerca ad altre fonti. Ho quindi interrogato così le AI: Scrivimi un articolo sul coding nelle scuole utilizzando come spunti "le due culture" di Snow e l'articolo della professoressa Wing del 2006. Mettici delle citazioni dai libri e articoli e fai, inoltre, l'esempio di come si può utilizzare come nel film Apollo13. Utilizza anche altre fonti pertinenti e metti le note bibliografiche a piede pagina.
Anche questa volta gli articoli sono risultati simili tra di loro ed altrettanto banali con il testo si ben steso e grammaticalmente corretto ma ancora troppo lineare e semplice. Questa volta, a differenza di prima, ChatGPT ha accluso altre fonti oltre il libro di Snow e l’articolo della professoressa Wing ma, entrambi, hanno sbagliato il riferimento a come sia possibile trovare l’esempio di pensiero computazionale nel film Apollo13.
Nessuno dei due articoli, sebbene richiesto, ha messo delle citazioni tratte dal libro o dall’articolo.

L’ultimo test è stato invece volutamente pensato per verificare le conoscenze delle due Ai e l’ampiezza delle fonti a loro disposizione. Il comando impartito era: In riferimento al libro "Epigrafi romane in Transilvania" puoi farmi un'analisi sulla perdita di documenti storici a causa di incidenti come quello occorso in questo caso sul Danubio?
Questa volta i risultati comparati tra le due intelligenze sono stati completamente differenti: ChatGPT, infatti, ha esordito con: “Purtroppo, non ho informazioni specifiche sul libro Epigrafi romane in Transilvania poiché il mio addestramento ha una data di taglio alla conoscenza fino a settembre 2021, e non sono in grado di accedere a nuovi dati o libri pubblicati dopo quella data. Pertanto, non posso fornire un'analisi dettagliata su quel libro specifico.”
A questo punto è doveroso far notare al lettore che il libro (composto da 2 volumi) è stato pubblicato in solo 1000 copie nell’autunno del 2010, quindi ben dentro quello che è il periodo di addestramento dell’intelligenza artificiale.
ChatGPT, come uno studente delle scuole dell’obbligo che non ha studiato, ha provato comunque a trattare l’argomento in maniera generica.
Meglio è andata la risposta del chatbot di Skype che, non solo conosceva il testo, ma ha anche messo il riferimento bibliografico. Anche in questo caso, però, il testo dell’articolo è risultato molto semplice e banale, sebbene scorrevole nella lettura.


È possibile distinguere se un articolo è stato scritto da una AI?
Il lettore che non ha avuto modo di provare le intelligenze artificiali generative, a questo punto della lettura, si chiederà sicuramente se esiste un modo per distinguere un articolo generato da una AI da quello scritto da un essere umano.
Vi sono online alcuni tools che permettono, una volta inserito un testo, di capire quale probabilità vi sia che il testo sia stato scritto da un umano anziché un’intelligenza artificiale. Ho provato due di questi tools (https://contentatscale.ai/  e https://www.zerogpt.com/) ed anche qua i risultati sono stai divergenti.
Nel considerare il primo articolo contentscale ha verificato come scritto completamente da umani l’articolo, mentre zerogpt ha rilevato una probabilità del 58.74% che l’articolo sia stato scritto da un AI. Ho fatto la controprova utilizzando l’articolo scritto da me ed ancora, mentre il primo assicura che l’articolo sia stato scritto da umani, zerogpt il da una possibilità che sia stato scritto da intelligenza artificiale solamente del 10.82%. Risultati analoghi li ho avuti con tutti gli articoli generati dall’AI.

Ma come fanno questi software a riconoscere che un testo sia stato scritto da un AI?
Principalmente utilizzano altri modelli di  intelligenze artificiali. ChatGPT, così come i suoi simili artificiali, imparano a scrivere in base a dei pattern o schemi: un po’ come gli umani creano un loro “stile” le Intelligenze artificiali creano un modo di scrivere facendo la media degli stili che hanno imparato. Così, controllando la ricorrenza di determinate parole, del modo di scrivere, come risulta la costruzione della frase e la prevedibilità, piuttosto che imprevedibilità, di una parola in un’espressione, i tools che verificano un testo, redigono la probabilità che ciò che hanno letto sia umano o artificiale.
Ma non sempre questi tools funzionano (io suggerisco di utilizzare https://www.zerogpt.com/ se si vuole provare) e quindi…
La prima cosa che consiglio è di imparare (o reimparare) a leggere. Le AI hanno imparato principalmente da ciò che hanno avuto a disposizione online ed hanno quindi uno stile conciso, semplice e veloce, con frasi corte e semplici. Chi è abitato a leggere si accorge subito se un libro, piuttosto che un racconto o un articolo, sono stati scritti da un essere umano o meno notando la complessità della scrittura: tendenzialmente, un testo scritto da un intelligenza artificiale, è davvero banale, contiene numerose ripetizioni e non si avvale dell’intero vocabolario della lingua utilizzata, specie se non si tratta dell’inglese. Per quanto possa risultare ben steso, il documento è la maggior parte delle volte troppo lineare e non sostituisce certi termini con sinonimi più consoni al contesto, realizzando un testo tutt’altro che ricco e accattivante.
Se avete una padronanza avanzata dell’italiano e/o siete lettori assidui riconoscere un testo artificiale vi risulterà facile una volta capiti i meccanismi.

Considerazioni
Le Ai sono il futuro, è inutile negarlo!
Esistono ad oggi però tanti problemi aperti, soprattutto morali.
La prima considerazione che mi viene da fare è quella di quelle aziende che si affidano a professionisti o ad altre aziende specializzate per scrivere banner pubblicitari o articoli promozionali che, convinte di pagare professionisti laureati che hanno studiato, con anni di esperienza e conoscono il loro mestiere, si ritrovano a pagare in realtà un AI spacciata per essere umano.
La seconda considerazione che mi viene è più culturale: utilizzando le AI per scrivere testi rischiamo di disimparare l’arte della creatività e disabituarci a leggere libri scritti magari in linguaggi difficili, con periodi lunghi e, quindi, a quel lavoro mentale che ha caratterizzato lo sviluppo della nostra cultura fin dalla nascita della scrittura.
La Commissione Europea, il 23 giugno del 2023 ha licenziato il AI ACT, un testo molto complesso, destinato a gestire l’utilizzo delle AI all’interno dell’Unione in base ad un sistema di valutazione dei rischi.
Tralasciando i punti che non riguardano questo argomento mi soffermerei invece su l'utilizzo dei testi generati da intelligenze artificiali: la proposta della Commissione Europea prevede che questi siano considerati sistemi di IA a rischio limitato, in quanto possono influenzare il comportamento o le scelte delle persone o creare aspettative irrealistiche. Pertanto, i fornitori e gli utenti di questi sistemi dovrebbero informare chiaramente le persone quando sono esposte a contenuti generati da IA e indicare la fonte e la natura dei contenuti. Inoltre, i fornitori e gli utenti dovrebbero garantire che i contenuti generati da IA non siano ingannevoli, discriminatori o lesivi della dignità umana.
Fermare l’AI è impossibile ed ingiusto. Utilizzare strumenti come ChatGPT per migliorare o aiutare il lavoro è doveroso. Utilizzarli al posto della creatività umana, invece, è immorale e ingannevole oltre che un insulto a più di 2000 anni di ingegno e creatività.
La soluzione è riappropriarci dei libri. Leggere, leggere e leggere ancora. Classici, moderni, contemporanei e saggi, in modo da poter imparare a distinguere un testo di qualità da uno banale e scialbo, indipendentemente da chi ne sia l'autore (Ai o Umano) e poter risalire la china di disinformazione e bassa cultura che negli ultimi 10-15 anni ha iniziato ad avanzare.
La mente umana è capace di collegare diverse discipline, citare una frase al momento giusto e a dovere, le AI non sono in grado di farlo: non vedono film, non sentono la musica, non percepiscono la poesia.
Se scrivono un testo non sanno come collegare un film, una foto, un evento ad un altro argomento che non sembra aver connessione. Se non lo avessi specificato direttamente nella richiesta, parlando di Realtà virtuale e di Metaverso le Ai non avrebbero mai collegato di loro iniziativa i romanzi di Gibson o film come “Il 13° piano” (in effetti non l’hanno fatto con quest’ultimo) pur essendo pertinenti con l’argomento.
Creare è un processo difficile, che richiede energie ed impegno, conoscenza e studio. Non si può ridurre tutto ad un freddo algoritmo o il risultato sarà una creazione scialba, banale, e piena di luoghi comuni, con un linguaggio semplice, fatto di frasi corte e povero da un punto di vista lessicale.
Come sempre non lasciamoci ingannare dalla tecnologia. Siamo noi a doverla utilizzare nel modo corretto e non abusarne per pigrizia.



Riferimenti:
https://eur-lex.europa.eu/~/?uri=CELEX:52021PC0206 https://www.europarl~/EPRS_BRI%282021%29698792 https://www.zerogpt.com/
https://www.zerogpt.com/
https://contentatscale.ai/
https://chat.openai.com/
https://www.bing.com/?/ai
https://theunedited.com/nerdering/aiarticoli.html
https://www.dcuci.univr.it/?ent=progetto&id=1927


(ultima consultazione agosto 2023)

Polli digitali

Note dell’autore: Gli esempi riportati nell’articolo sono tutti esempi reali. Non ho messo i nomi degli autori per evitare fastidiose noie legali, ma sarò felice di comunicare in privato, a chi fosse interessato, i nomi degli autori dei corsi.

Una nuova forma di raggiro si è sviluppata negli ultimi anni online affianco alle classiche atte a sottrarre i dati personali o della carta di credito degli utenti: quella dei “Corsi online per diventare esperti in…”.
Di questo tipo di raggiri, perché non è corretto parlare di truffe, ce ne sono di vari tipi. Da quelle più o meno innocue che offrono corsi all’apparenza gratis, a quelle che i corsi li fanno veramente pagare sennonché scoprire, una volta pagati ed iniziati, che questi corsi sono fatti, come si suol dire, “un tanto al chilo ed in maniera troppo superficiale.
Certo non tutti i corsi sono delle truffe, anzi la maggior parte sono seri e fatti da veri professionisti, ma sarebbe bene fare attenzione a quello che viene proposto.
Vediamo alcuni esempi e alcune tecniche reali che vengono utilizzate per sfruttare la buona fede delle persone.
Come inizio possiamo dire che tutti questi tipi di corsi promettono di avere lauti guadagni senza dover spendere troppi soldi (a parte l’eventuale acquisto del corso ma quello, ovviamente, non conta perché è da considerarsi un investimento a detta di chi lo vende N.d.r.) e senza dover faticare troppo, oppure di diventare esperti in un campo (se non in molti) in brevissimo tempo.

Dropshipping.
Il primo esempio che voglio proporre al mio lettore è quello di un corso sul  Dropshipping.
Per chi non lo sapesse il dropshipping è un metodo di vendita applicabile all’e-commerce che consiste nel vendere un prodotto online senza averlo materialmente in un magazzino, ma che viene proposto agli acquirenti facendo da tramite tra il pubblico e il fornitore. Una specie di agente di commercio online. Questo è, ovviamente, possibile in quanto  esiste un accordo commerciale tra venditore chiamato dropshipper e fornitore primario.
Il corso in realtà era un Videocorso e, dopo aver visto i primi video, avevo già capito che era un lavoro molto poco professionale: l’autore ha utilizzato un programma freeware chiamato OBS Studio (che indipendentemente dal fatto che sia gratuito funziona molto bene!) per registrare lo schermo e la sua voce. Fino a qua non ci sarebbe nulla di male se non fosse che il ragazzo che ha realizzato questo video corso ha registrato tutto direttamente, senza alcun montaggio o taglio, tanto che all’inizio di ogni video si vedeva OBS Studio che partiva e registrava lo schermo e che, il lavoro era un lavoro raffazzonato e approssimativo. Lo si deduceva dal fatto che durante le “lezioni” l’autore faceva a volte degli sbagli e si correggeva, segno questo che non seguiva o una traccia e che, comunque, invece di fermare la registrazione e rifare il pezzo sbagliato o tagliarlo, andava avanti a registrare.
A mio avviso questa forma di sciatteria nel fare un videocorso che viene venduto a caro prezzo (parliamo di migliaia di euro) è, non solo una mancanza di professionalità ma, soprattutto, mancanza di rispetto nei confronti degli acquirenti.

Corso gratis ma…
Non tutti i corsi online sono a pagamento. C’è anche chi offre corsi gratuiti o, almeno, che sembrano gratuiti. È questo il caso di un corso che promette di: “iniziare a guadagnare online seriamente in 3 giorni, senza trucchi bizzarri né segreti deliranti”.
Anche in questo caso stiamo parlando di un videocorso che, sebbene sia fatto meglio del precedente con tanto di montaggio e spiegazione dei vari passaggi senza errori, ha una durata di meno di 3 ore con la lezione più lunga che dura 49” e la più corta 1”59. Già da questo punto si dovrebbe iniziare a pensare che il segreto della ricchezza racchiuso in così poco tempo di video sia una cosa su cui storcere il naso.
Ma proseguiamo analizzando il corso in alcuni punti salienti: dopo un introduzione nella quale il relatore parla di persone che si accontentano e persone che invece vogliono di più, inizia a parlare del corso e del suo Kit (che molto magnanimamente mette a disposizione gratuita), che anche un piccolo business può portare a grandi guadagni, che non serve essere esperti per parlare di un argomento ma basta condividere i contenuti che parlano di quell’ argomento, perché per creare un business online basta essere considerati esperti in quella cosa e non esserlo effettivamente (al massimo basta essere informati), e così via fino a parlare della necessità di creare un sito web e Lead generation1.  
Seguono poi vari video che parlano di modelli di business e di come scegliere una “nicchia” di mercato per arrivare ad un video di soli 4 minuti e 13” dove ripete la necessità di creare un sito web.  Segue, finalmente, il video con il vero scopo del corso: la creazione di un sito web che porta a “lauti guadagni”!
A questo punto l’autore invita a creare un sito web e consiglia di utilizzare Wordpress2 e, dato che ci siamo, meglio che utilizziamo l’hosting che consiglia lui attraverso il semplice click sul link che ci propone. Si perché lo starter kit che ha messo a disposizione gratis è un modello Wordpress che, assicura, è ottimizzato per questo scopo quindi è da utilizzare. Ovviamente niente impedisce di utilizzare altri CMS ma non saranno funzionali come il suo sito. C’è però un problema se si vuole usare il suo modello super testato: per utilizzarlo c’è bisogno di utilizzare un plug-in3 di wordpress (a pagamento chiaramente) e, per semplificare le cose, ecco bello e pronto il link da cliccare per acquistare il plug-in.
Così il nostro munifico autore ha già guadagnato la commissione sulle vendite che vengono fatte tramite il suo corso (come la barzelletta del carabiniere che vede l’uomo che mangia i semi delle mele).
Proseguendo con il corso troviamo un video che spiega, in maniera semplificata e superficiale, la creazione e la gestione SEO4 del sito.  Il video è tanto essenziale che, se non si seguono pedissequamente le sue istruzioni e/o non si conosce Wordpress, si rischia di fare danni. Anche per quanto riguarda la personalizzazione non offre molte spiegazioni particolareggiate ma, d'altronde, il suo scopo è stato ormai raggiunto, tutto il resto è di contorno, tanto che ci si chiede per quale motivo abbia voluto far installare il plug-in “Elementor” dato che quello che chiede di fare si può fare benissimo anche senza…
Per quanto riguarda la parte SEO, sempre tramite un plug-in (questa volta gratuito) la spiegazione è a livelli talmente elementari che non parla nemmeno di Microdata, Sitemap, Robots.txt, Heading Order, Slug SEO valido e molto altro. Insomma un corso molto approssimativo tanto che la creazione del banner cookie e del contenuto da mettere non è aggiornato alle ultime normative rischiando così di prendere multe salate.
Alla fine si scopre che tutto il presunto guadagno astronomico che si può fare, sì basa sul fatto di creare un sito web nel quale mettere le “pubblicità” di prodotti e servizi di aziende (come Amazon, Udemy, ecc.) in modo che, quando un utente faccia un acquisto tramite il sito, noi ne ricaviamo una percentuale. Peccato che per poter sperare di aver ricavi tramite questo metodo ci sia la necessità di un volume di visite mensile notevole e non certo le poche centinaia che un sito fatto (male) tramite il suo kit può avere.


Impariamo a programmare?
Infine l’ultimo esempio che voglio analizzare è una vera chicca: direttamente da uno dei siti di corsi online più blasonati ed il cui titolo è già di per sé un programma (scusare il giro di parole): “Programmazione - Il MEGA Corso Completo”. 
Ed a guardare i più di 40 capitoli (ognuno con vari video all’interno) il corso sembra veramente dare quello che promette sennonché si scopre che i video toccano in maniera superficiale il tema della programmazione o i vari linguaggi: per fare un esempio la programmazione in Java occupa in totale 2 ore e 21 minuti di video, mentre Python5 viene trattato sono come Ethical Hacking6 e, in 57 minuti, vengono proposti solamente dei listati senza insegnare la programmazione in questo fantastico linguaggio!
Una parte da leone la fanno i capitoli dedicati all’ HTML e al CSS che sono addirittura considerati “hard Skill” anche se, parlando con un programmatore, dirà certamente che non possono essere considerati linguaggi di programmazione ma piuttosto linguaggi di formattazione.
Infine da notare che, come sempre, non poteva mancare un capitolo (molto più corposo di quello su HTML e CSS) dedicato a Wordpress e, a questo punto, mi piacerebbe sapere che c’entra Wordpress con la programmazione!
Certo non mancano capitoli dedicati ad Ajax, Jquery e Java script o ai database ma tutto trattato senza approfondire molto i concetti. D'altronde un corso di programmazione serio richiede molto tempo e, questo, per imparare solamente un singolo linguaggio.


Non tutti sono così
Per fortuna non tutti i corsi online sono delle truffe, anzi ho avuto modo di vedere corsi su Media Marketing o sulla programmazione (ma dedicati ad un solo specifico linguaggio) molto esaustivi e completi.
Come distinguere i corsi seri da quelli meno allora?
Qua la cosa è più complicata rispetto alle classiche truffe in quanto, la maggior parte delle volte, ci si accorge di aver buttato via i soldi solo dopo averlo fatto.
Rimangono da tenere a mente alcuni avvertimenti dati dal buon senso:
1. Se una cosa è troppo bella per essere vera allora forse non lo è! A tutti piace fare i soldi facili ma, a parte casi particolari, per aver successo in qualsiasi attività è richiesto molto impegno, dedizione, sacrificio e, soprattutto, tempo: un ingegnere informatico o un programmatore studiano anni per arrivare ad avere le competenze necessarie a padroneggiare un settore.
2. Se possibile sentire il consiglio di qualche amico o persona esperta che conosca la materia o sa di cosa si parla. Non è sempre vero che un profilo virtuale corrisponda alla realtà e solo perché chi ci propone un corso è “famoso” online con vari profili social e skills di rilievo, non è detto che queste competenze siano vere. Creare un profilo e più facile che rubare le caramelle ad un bambino!
3. I buoni vecchi libri! Prima di seguire un corso online sarebbe meglio consultare un libro cartaceo (o e-book) sull’argomento per poter valutare quello che ci viene proposto.

A questo punto mi vien voglia di mettermi a fare un corso… Ma realmente gratis perché “la conoscenza deve sempre essere condivisa con tutti” e non tutti hanno i mezzi per poter comperare la conoscenza!



1La lead generation è il processo che consiste nell'attrarre l'interesse di potenziali clienti, per trasformarlo in transazioni di vendita.
2 WordPress è una piattaforma software per la creazione di "blog" e Content Management System (CMS) open source basato sul linguaggio di script PHP e database MySql,  che consente la creazione e distribuzione di un sito Internet facilmente aggiornabile.
3 I plug-in sono componenti di un software che aggiungono delle funzionalità a un programma esistente.
4 SEO è l'acronimo inglese della parola Search Engine Optimization, che tradotto significa ottimizzazione per i motori di ricerca. É una disciplina informatica che ha l'obiettivo incrementare la visibilità e il posizionamento di un sito web all'interno dei risultati organici dei motori di ricerca
5 Python è uno dei linguaggi di programmazione più usati al mondo. Grazie alla sua sintassi asciutta e potente, ed al supporto multipiattaforma, è utilizzato per moltissime tipologie di applicazioni, dal networking, al web, fino al machine learning
6 L'Ethical Hacker si occupa di testare la sicurezza dei sistemi informatici aziendali mediante simulazione e prevenzione di possibili attacchi informatici.

Paura AI

Dopo che il Garante della Privacy ha aperto un’istruttoria su ChatGPT, di fatto bloccandola temporaneamente nel nostro paese, quello che prima era un tool di AI1 riservato a pochi appassionati è diventato un argomento di “cultura generale” dove chiunque può esprimere la propria opinione.
A dare adito alle preoccupazioni riguardo questa tecnologia si sono inseriti nel dibattito anche persone di autorevolezza come l'ex presidente dell'Agenzia spaziale italiana Roberto Battiston o il cofondatore di Neuralink e OpenAI Elon Musk (nonché direttore tecnico di SpaceX, amministratore delegato di Tesla, ecc).
Ma sono davvero fondate queste preoccupazioni?
Vediamo di fare un po’ di luce sulla situazione e soprattutto se solo ChatCPT è pericolosa o anche le altre AI.


Cos’è un’intelligenza artificiale?
Già nel 1950 sulla rivista Mind il grande matematico Alan Turing nell'articolo “Computing machinery and intelligence” ideò un test per determinare se una macchina sia in grado di esibire un comportamento intelligente (vedi articolo “
È Stato Superato Il Test Di Turing?” su questo stesso sito). Questo fu il primo tentativo per avvicinarsi al concetto di intelligenza artificiale. In realtà il concetto di AI al giorno d’oggi si è evoluto in una tecnologia che consente di simulare i processi dell’intelligenza umana tramite programmi in grado di pensare e agire come gli esseri umani. Per ottenere tutto questo sono necessari principalmente 2 fattori: grandi capacità d calcolo e un enorme molte di dati sui quali gli algoritmi possano crescere.
Se per il primo requisito gli ostacoli sono stati facilmente superabili per il secondo fino all’avvento di internet e dei social network (ma soprattutto fino alla loro massificazione) le cose erano più complicate in quanto si necessitava di raccogliere dati da varie fonti che spesso non comunicavano tra loro e inserirli negli algoritmi; ma, come appena scritto, grazie a questi due strumenti le aziende che sviluppano Intelligenza Artificiale hanno potuto accedere quantità enormi di informazioni eterogenee che hanno dato lo slancio alla creazione una nuova tecnologia.
Già negli ultimi 10 anni si è assistito ad un lento sviluppo delle AI anche se non ci siamo mai soffermati a rifletterci: quando usiamo le auto con la guida autonoma o semi-autonoma  usiamo programmi di AI, così come quando interagiamo con un Chatbot2 e o utilizziamo software per riconoscere piante o persone tramite la telecamera del nostro smartphone o tablet oppure semplicemente utilizziamo un assistente vocale quali Siri o Cortana.


Cos’è ChatGPT?
Ma cosa rende questa AI diversa delle altre e perché?  
Innanzitutto chiariamo che lo scopo di ChatGPT è quello di rendere l’interazione con i sistemi di intelligenza artificiale più naturale e intuitiva, infatti GPT sta per Generative Pretrained Transformer (traducibile grossolanamente in “trasformatore pre-istruito e generatore di conversazioni”), ovvero un modello di linguaggio che utilizza il Deep Learning3 per produrre testi simili in tutto e per tutto a quelli che scriverebbe un essere umano: quando un utente inserisce un messaggio, Chat GPT elabora l'input e genera una risposta pertinente e coerente all’interno della conversazione.
Ma se quello che facesse questa AI fosse solo rispondere alle domande degli utenti in maniera simile a quella di un essere umano saremmo davanti a niente più di un chatbot evoluto. In realtà quello che ChatGPT fa e sta imparando a fare è molto più articolato: permette di scrivere testi più o meno lunghi (temi, tesi, libricini, ecc.), permette di scrivere programmi senza quasi aver alcuna conoscenza di linguaggi di programmazione piuttosto che una canzone, una poesia o anche una sceneggiatura cinematografica inoltre è anche in grado di dare consigli su viaggi o di qualsiasi altra cosa e, come un vero essere umano, a volte può anche sbagliare nelle risposte o nei compiti assegnati.
Per usare ChatGPT è sufficiente collegarsi a OpenAi.com e poi attivare gratuitamente un account. Sfortunatamente da qualche settimana questo non è più possibile per noi utenti italiani senza una VPN.


Non esiste solo ChatGPT?
Sebbene famosa questa AI non è la sola presente sul mercato. Anche altre aziende oltre OpenAi stanno sviluppando (o anno già sviluppato)  sistemi analoghi.
BingAi, sviluppato da Miscrosoft (che è stato uno dei finanziatori più generosi di OpenAi) è stato integrato nell’omonimo motore di ricerca della società di Redmond che si pone come obbiettivo di dare risposte, ma non solo: se ad esempio ci colleghiamo alla sezione “create” (https://www.bing.com/create) possiamo far creare a BingAi un immaigne partendo da una nostra descrizione (solo in inglese per ora). BingAi utilizza lo stesso motore di GPT.
Google Bard è, invece, l’alternativa proposta da BigG. Questo strumento di AI per il momento è ancora in fase di sviluppo nelle prime fasi non ha entusiasmato più di tanto e i risultati delle sue integrazioni sono risultati inferiori come qualità a quelle presentata dai concorrenti. Il CEO di Google, Sundar Picha, non sembra particolarmente preoccupato di questo e afferma che Brad passerà presto dal modello LaMDA (Language Model for Dialogue Applications) a PaLM (Pathways Language Model) in quanto il modello attuale è “addestrato” da solamente 137 miliardi di parametri, contro i 540 miliardi di parametri di PaLM. Quando Bard sarà attivo in maniera completa cambierà soprattutto il modo nel quale vengono presentate le ricerche da Google e, probabilmente, il motore di ricerca più utilizzato al mondo diventerà più attento nella qualità delle pagine indicizzate e proposte; o almeno questo è l’intento di Google.
IBM Watson è l’intelligenza artificiale sviluppata, appunto da IBM dal 2010 che nel 2013 ha avuto la prima applicazione commerciale ovvero la gestione delle decisioni nel trattamento del cancro ai polmoni al Memorial Sloan-Kettering Cancer Center. A differenza dei suoi antagonisti sopra citati Watson si propone ad un pubblico business: il sistema è in grado di analizzare ed interpretare i dati, testi non strutturati, immagini, dati audio e video e, grazie all'intelligenza artificiale, il software riconosce la personalità, il tono e l'umore dell'utente.


Perché fa paura l’evoluzione delle AI?
Le intelligenze artificiali, da come abbiamo visto fino ad ora, sembrano essere una panacea per l’aiuto nel lavoro di tutti i giorni, ma presentano anche dei lati oscuri che non sono però gli scenari apocalittici rappresentati da tanti film di fantascienza quali Matrix, Terminator, eccetera.
Così come sono in grado di creare immagini dal nulla con semplicemente delle spiegazioni, altrettanto possono creare dei falsi video o foto per generare disinformazione. Già nel 2019 Samsung ha sviluppato un sistema, basato sull'intelligenza artificiale, capace di creare finti video da una o due fotografie e, negli ultimi mesi del 2022 , sempre più video falsi realizzati con lo scopo di mostrare le capacità delle AI nel generare contenuti, sono stati messi in rete.
Certo, si obbietterà, che la produzione di video "fake" non è nuova, ma quello che cambia adesso è che,  se fino a ora erano necessarie grandi quantità di dati e competenza e un’ occhio allenato poteva notare la differenza tra reale e no adesso, con le AI si possono costruire movimenti del viso e della bocca che non sono mai esistiti e che sembrano reali.
Quindi se la manipolazione delle immagini (o dei suoni) tramite AI può dare vita a meme innocui, oppure semplificare la vita di animatori e sviluppatori di videogiochi bisogna prestare attenzione ad un possibile utilizzo illegale o atto a disinformare l’opinione pubblica o discreditare chiunque.
Pensate: cosa fareste se un giorno vi trovaste a vedere un video su Facebook di voi che state facendo una rapina in banca e questo video sarebbe tanto dettagliato da sembrare reale?
Ma non si tratta solo della capacità di creare fave video. Le IA come ChatGPT possono anche creare commenti e di auto-evolversi.
Queste capacità di auto-evolversi sono state uno dei motivi che hanno portato Musk con altri mille esperti a chiedere una moratoria di sei mesi all'addestramento delle Intelligenze artificiali (non solo ChatGPT) attraverso una lettera aperta (sotto forma di petizione) indirizzata ai governi e, soprattutto, alle aziende che in questi hanno aumentato la ricerca allo sviluppo di queste tecnologie. In questa petizione, pubblicata sul sito Futureoflife.org, imprenditori e accademici chiedono una moratoria sull'uso delle AI fino alla creazione di sistemi di sicurezza. Il rischio più grande non è che le intelligenze artificiali possano scatenare una guerra contro l’umanità ma che si mettano a “fare cose” senza un motivo a noi apparente o che “imparino cose sbagliate”.
In Italia il Garante per la Privacy ha bloccato momentaneamente ChatGPT in attesa sul chiarimento su come vengono trattati i dati personali degli utenti. Una motivazione forse banale ma che ha portato ad un blocco (unico per adesso in Europa) della tecnologia di OpenAi. In particolare il Garante rileva “la mancanza di una informativa (come quelle presenti nei normali siti web) agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI”. Inoltre, sottolinea sempre il Garante c’è “l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma”, che si può tradurre come: “Non c’è un motivo per utilizzare i dati personali delle persone per insegnare al vostro software!”.
Mentre in Italia si attua un blocco momentaneo a CathGPT in attesa di delucidazioni sull’uso dei dati personali, in Europa molti paese (come Germani, Francia) chiedono delucidazioni all’Italia per questa sua decisione e nella Commissione Europea si discute se e come regolarizzare le Intelligenze Artificiali.


Quale futuro?
Di sicuro l’evoluzione dell’intelligenza artificiale rappresenta per l’informatica quello che l’energia nucleare ha rappresentato nel mondo della fisica e, proprio come l’energia nucleare, può rappresentare sia un’utilità che un mezzo di distruzione. Intanto si stanno delineando nuove opportunità nel mondo del lavoro per chi sa utilizzare e programmare le AI e nuove professioni stanno nascendo come ad esempio il prompt expert4 che negli Stati Uniti può arrivare a guadagnare da 70.000 a 140.000 dollari all’anno.
Da tutto questo l’Italia rischia, per adesso, di rimanere esclusa.
Se la decisione del Garante sia giusta o meno non lo sappiamo e lo sapremo in futuro, ma per adesso, se vogliamo utilizzare ChatGPT non ci resta che utilizzare una VPN.

 


 

1Ai è l’acronimo di Artificial Intelliggence
2 Un chatbot è un software che simula ed elabora le conversazioni umane (scritte o parlate), consentendo agli utenti di interagire con i dispositivi digitali come se stessero comunicando con una persona reale
3 Il Deep Learning, la cui traduzione letterale significa apprendimento profondo, è una sottocategoria del Machine Learning (che letteralmente viene tradotto come apprendimento automatico) e indica quella branca dell’intelligenza artificiale che fa riferimento agli algoritmi ispirati alla struttura e alla funzione del cervello, chiamati reti neurali artificiali. Da un punto di vista scientifico, potremmo dire che il Deep learning è l’apprendimento da parte delle “macchine” attraverso dati appresi grazie all’utilizzo di algoritmi (prevalentemente di calcolo statistico).
4 Il prompt è la descrizione, ossia l’input, che diamo all’intelligenza artificiale generativa quando le chiediamo qualcosa. Il prompt Expert una figura professionale che ha il compito di fornire all’intelligenza artificiale descrizioni sempre più precise per fare in modo che le risposte che si ottengono lo siano altrettanto.

 


BIBLIOGRAFIA
Improving Language Understanding by Generative Pre-Training, The university of British Columbia, https://www.cs.ubc.ca/~amuham01/LING530/papers/radford2018improving.pdf
OpenAI Documentation,
https://platform.openai.com/docs/introduction
SHERPA project
https://www.project-sherpa.eu/european-commissions-proposed-regulation-on-artificial-intelligence-is-the-draft-regulation-aligned-with-the-sherpa-recommendations/
(Ultima consultazione siti web aprile 2023)

C'è pericolo per internet in Europa?

Tutti sappiamo, quasi sempre per sentito dire, che la rete internet è nata come progetto militare per garantire la comunicazione sempre e comunque (anche in caso di olocausto nucleare) tra i vari centri di comando. Questa consapevolezza è talmente radicata che siamo convinti che l’infrastruttura internet sia sempre disponibile (escluso i guasti che possono capitare sulla linea ma questo è un altro discorso).
Come stanno realmente le cose?

Internet non è il web.
Per prima cosa dobbiamo chiarire la differenza che c’è tra la rete internet ed il “web”.
La rete internet è un infrastruttura dove viaggiano pacchetti di dati tra vari nodi di computer che si scambiano informazioni tramite delle regole che si chiamano protocolli. I pacchetti dati che vengono scambiati dai vari computer tramite dei “nodi” vengono interpretati da vari programmi (whatsapp, programmi di videoconferenza, programmi FTP, newsgroup, posta elettronica, ecc.) presenti sui singoli dispositivi che provvedono ad interpretarli ed elaborarli. Internet è, insomma, una specie di ferrovia che offre il trasporto di informazioni che attraverso delle stazioni (i server) distribuisce queste informazioni alle singole case presenti in una “citta”, ovvero i singoli computer collegati.
Il web è, invece, solamente uno dei servizi internet che permette il trasferimento e la visualizzazione dei dati, sotto forma di ipertesto. La prima pagina web è stata realizzata da Tim Berners-Lee nel 1991 presso il CERN. Il web ha permesso di trasformare quello che viaggiava su internet da una serie di informazioni statiche ad un insieme di documenti correlati e facilmente consultabili.

Come nasce Internet.
In piena guerra fredda, nel 1958 la difesa degli Usa fondò ARPA, acronimo di Advanced Research Projects Agency  e che oggi si chiama DARPA (D sta per Defence) con lo scopo di trovare soluzioni tecnologiche innovative ad un certo numero di problemi, principalmente militari. Tra i vari problemi che ARPA si trovò ad affrontare vi era quello creare un sistema di telecomunicazioni sicuro, pratico e robusto, in grado di garantire lo scambi di informazione tra i vari comandi e sistemi di risposta in caso di attacco nucleare sempre e comunque.
Lo scambio di dati tra i vari computer, fino ad allora, avveniva tramite un collegamento diretto tra i due, solitamente tramite linea telefonica. Questo tipo di scambio dati, oltre che essere poco sicuro, presentava delle debolezze intrinseche: la velocità era limitata e condizionata dal computer più lento e la connessione era limitata a due utenti che venivano collegati direttamente. Ad aumentare la criticità di questo modo di scambiare informazioni, inoltre, vi era il fatto che tutti i dati passavano da un nodo centrale, incaricato di questa operazione di switching, creando un punto critico in caso di guasto o di attacco.
La soluzione fu trovata “imbustando” i dati in una serie di pacchetti che, come in una busta postale, contengono l’indirizzo del mittente, del destinatario e l’informazione che si vuole trasmettere. In questo modo era possibile per più utenti utilizzare una stessa linea e, in caso di guasto o inoperatività di un nodo, le informazioni potevano essere deviate su di un’altra strada, dato che si sapeva “l’indirizzo” del destinatario. L’unico problema che esisteva (ma all’epoca non era considerato un problema visto il numero esiguo di computer presenti) era che bisognava, appunto, conoscere l’indirizzo del destinatario.
Il progetto prese ufficialmente vita nel 1958 quando  Steve Crocker, Steve Carr e Jeff Rulifson, in un documento del 7 aprile presentarono l’idea di una rete che prese il nome di ARPANET. Inizialmente furono solo quattro i computer collegati ma in breve tempo il loro numero aumentò includendo non solo enti della difesa USA ma anche università e centri di ricerca.
Per facilitare lo scambio di dati tra computer differenti venne implementato un protocollo apposito il TCP/IP che è tutt’ora utilizzato. A seguire vennero inventate nel 1971 le e-mail, mentre l’anno seguente vide la nascita di un metodo per controllare i computer in remoto che prese il nome di telnet e per finire un protocollo per il trasferimento dei file che si chiama FTP. Tutti questi protocolli che sono tutt’ora esistenti e sono una parte fondamentale di quello che chiamiamo “Internet”.
Anche se negli anni i protocolli si sono evoluti, ne sono nati di nuovi e altri si sono modificati il principio di funzionamento rimane lo stesso degli anni ’60 e oggi sono milioni i computer e i dispositivi interconnessi in tutto il mondo.

C’è pericolo per l’infrastruttura mondiale?
Attualmente abbiamo un mondo sempre più interconnesso. Quando consultiamo un sito internet, mandiamo un messaggio tramite whatsapp  o messenger, pubblichiamo una nostra foto su Facebook piuttosto che una storia su Instagram o facciamo un bonifico bancario utilizziamo uno dei tanti servizi che la rete internet ci mette a disposizione.
Spesso i server che utiliziamo sono situati in altri continenti o altre nazioni: le webfarm (luoghi dove sono collocati una serie di Server a temperatura controllata e in sicurezza) che contengono i siti internet non sempre sono in Italia o in Europa anche se il dominio che consultiamo è di tipo .it o .eu ed appartiene ad una società italiana.
A collegare questi server a casa nostra provvede una fitta rete di cavi ottici sottomarini (la mappa è consultabile sul sito
www.submarinecablemap.com) che trasportano il 97% del traffico internet mondiale. Sicuramente, a questo punto della lettura, viene da chiedersi perché si preferisca utilizzare i cavi marini anziché i satelliti, come nel caso della costellazione Starlink di Eolon Musk?
Il primo motivo è il costo della tecnologia della fibra ottica che è molto più vantaggiosa della messa in orbita e del mantenimento di una rete di satelliti.
Dobbiamo poi considerare la velocità: satelliti per la trasmissione dati sono, per la maggior parte, situati in orbite geostazionarie il che vuol dire che orbitano su un punto fisso sopra la terra (come i satelliti GPS) ad un’altezza di circa 36.000 km. Ad una tale distanza un bit, che viaggia alla velocità della luce, per percorrere una simile distanza impiega ¼ di secondo e questo tempo di latenza nella comunicazione può, in certi casi, diventare critico.
Dobbiamo,  infine, considerare che se tutte le comunicazioni della rete internet dovessero passare tramite satelliti probabilmente questi ultimi avrebbero difficoltà a gestire una mole di traffico eccessiva: un conto è dover gestire 10.000/30.000 utenti collegati contemporaneamente un altro doverne gestire 1.000.000.
Queste autostrade digitali prendono il nome di dorsali, e una delle più importanti passa al largo delle coste irlandesi dove transitano oltre 10 trilioni di dollari al giorno di transazioni finanziarie.
Non stupisce che, dopo il sabotaggio del gasdotto Nord Stream, stia nascendo la preoccupazione di un possibile attentato ai cavi sottomarini da parte dei Governi Europei e della Nato: gli alti funzionari della Marina degli Stati Uniti hanno avvertito per molti anni delle conseguenze catastrofiche di un possibile attacco da parte delle navi russe su cavi Internet.
In realtà, a parte un eventuale aumentare della tensione geopolitica, un reale pericolo non esiste, o meglio, le conseguenze non sarebbero così gravi come certi giornali annunciano: già adesso, ogni giorno, si verificano guasti lungo i cavi ma gli utenti non se ne accorgono.
Abbiamo visto all’inizio che la struttura internet è nata con lo scopo di evitare che un conflitto impedisca la possibilità di scambiare informazioni tra i vari posti di comando. Se un cavo viene tagliato, o anche la maggior parte dei cavi di una dorsale, semplicemente i pacchetti dati verrebbero reindirizzati tramite un’altra strada per raggiungere il destinatario a scapito, ovviamente, della velocità di interscambio dei dati. E se anche un eventuale stato belligerante riuscisse a tagliare tutti i cavi Atlantici si potrebbe sempre reindirizzare il traffico sulla dorsale dell’Oceano Pacifico o via satellite, anche se in quest’ultimo caso bisognerebbe dare la precedenza ai servizi di primaria importanza e si avrebbe un rallentamento generale.
In questo periodo di guerra i propagandisti russi (come Viktor Murakhovsky) hanno dichiarato che la Russia potrebbe danneggiare seriamente le comunicazioni in Europa e ciò avverrebbe tramite l’utilizzo di sottomarini speciali come il Belgorod ma, come abbiamo visto, tutto questo rimane accantonato nella pura propaganda di guerra.

Pwn2Own: cosa emerge e cosa non emerge

Pwn2Own è una delle competizioni di hakeraggio più famose al mondo che quest’anno ha visto assegnare premi per 1.155.000 dollari su 25 vulnerabilità zero-day1 che sono state trovate


Cos’è Pwn2Own
Pwn2Own è un concorso di pirateria informatica che si tiene ogni anno alla conferenza sulla sicurezza di CanSecWest. La prima edizione è avvenuta nel 2007 a Vancuver e da allora, con l’eccezione del periodo della pandemia di Covid-19, ha aiutato le aziende del settore IT che vi partecipano a scoprire e correggere gravi falle nei loro software.
La competizione nasce su iniziativa di Dragos Ruiu frustrato dalla mancanza di disposte da parte di Apple alle sue domande sulla sicurezza nel mese dei bug di Apple e dei bug del kernel, nonché sulla banalizzazione che quest’ultima faceva della sicurezza integrata sui sistemi Windows in alcuni spot pubblicitari televisivi (andati in onda negli Stati Uniti e in Canada). All’epoca tra gli utenti Mac era  in diffusa (e tra molti utenti lo è ancora) che la sicurezza i prodotti Apple e OSX fossero più sicuri della controparte Microsoft.
Così circa tre settimane prima di CanSecWest ( la più importante conferenza al mondo incentrata sulla sicurezza digitale applicata) Ruiu annunciò il concorso Pwn2Own ai ricercatori sulla sicurezza della mailing list DailyDave. All’epoca non c’era un premio in denaro ma il vincitore poteva portarsi via il dispositivo che riusciva ad Hackerare (in quel caso si trattava di 2 MacBook Pro) e da qua il nome che è la combinazione delle parole "pwn", che vuol dire Hackerare, 2 che in inglese si legge Tow (due) ma si intende anche come la parola “to” nei messaggi delle chat, che davanti al verbo “Own” vuol dire possedere.
In effetti la tradizione di diventare i proprietari del dispositivo che viene hackerato è rimasta ancora adesso nella competizione affianco ai premi in denaro.
Negli anni la competizione si è ampliata sia per quanti riguarda i premi in denaro che per quanto riguarda le regole e gli obbiettivi. Già l’anno successivo si invitava gli utenti a leggere un file di testo contenuto computer con diversi sistemi operativi (Windows, Mac OSX, Lunux Ubuntu), prima cercando di hakerare solamente il computer e successivamente potendo passare anche attraverso i Browser. Anche in questo caso il primo a cadere fu il Mac attraverso un bug di Safari.


Cos’è successo quest’anno?
Quest’anno il premio per chi superava le “sfide” è arrivato a superare il 1.000.000 di dollari suddiviso in 25 differenti vulnerabilità in un periodo di 3 giorni. Il primo giorno, ha visto cadere Microsoft Teams, Oracle VirtualBox, Mozilla Firefox, Microsoft Windows 11, Apple Safari (unico prodotto della casa di Cupertino ad essere presente alla competizione), e Ubuntu Desktop.
Il secondo giorno, invece, è toccato a Tesla cadere: i ricercatori della compagnia francese Synaktiv sfruttando un bug del sistema di Tesla hanno avuto accesso ad alcuni comandi della macchina prodotta da Eolon Musk. Sempre nel secondo giorno sono invece falliti altri tentativi di avere accesso al sistema operativo Windows 11 e altri due tentativi di accedere al sistema di Tesla. Il terzo giorno, invece, i ricercatori sono riusciti a penetrare per ben tre volte nel sistema operativo Windows 11, senza fallire.
Ma superare le prove non è sufficiente: per acquisire i punti bisogna non è sufficiente l’hackerare il dispositivo o il programma interessato ma anche il modo nel quale lo si fa considerando la capacità operativa e il bug utilizzato nonché la possibilità di poter mostrare il metodo utilizzato.
Alla fine dei tre giorni l’azienda e che è stata proclamata Master of PWN dagli organizzatori del torneo, per aver totalizzato il maggior numero di punti, è la "Star Labs" di Singapore.


Cosa abbiamo imparato?
La prima cosa da notare è che quest’anno non solo erano presenti programmi di “comunication” e collaborazione online come Teams e Zoom ma attaccare questo tipo di programmi aveva un maggior peso nella competizione e portava i contendenti ad avere premi più sostanziosi.
Nulla da stupirsi visto che negli ultimi due anni queste applicazioni hanno avuto uno sviluppo ed un utilizzo sempre più rilevante nella nostra società, ma una riflessione si rende necessaria: se fino a qualche anno fa quando si pensava a vulnerabilità si pensava a debolezze del sistema operativo piuttosto che a come si utilizzava internet e veniva spesso consigliato di prestare attenzione ai siti che si visitano, ai programmi che si usano o i scaricano (che avessero delle fonti attendibili e non fossero copiati o piratatti), eccetera, quest’anno ci si accorge che queste precauzioni possono non essere più sufficienti.
Quando ci si unisce ad una conversazione in Teams piuttosto che su Zoom si pensa che a questo punto si sia al sicuro in quanto siamo collegati con persone che conosciamo. Nulla di più sbagliato. Le falle riscontrate hanno dimostrato che non è più sufficiente stare attenti ma è anche necessario disporre di protezioni quali antivirus e antimalware nonché, se si è utenti particolarmente avventurosi, dotarsi anche di una VPN2.
Sempre riguardo il fatto che bisogna sempre essere protetti è da considerare, inoltre, che i bug rilevati sui Browser a volte permettevano l’accesso a livello di Super User3 alla macchina senza necessità di nessuna conferma da parte dell’utente; questo privilege escalation4 porta alla possibilità del malintenzionato di poter eseguire codici RCE5 (Remote Code Execution) sulla macchina attaccata.
Concludendo possiamo dire che ben vengano concorsi dove si scontrano Hacker etici che permettono alle aziende di migliorare i loro prodotti e a noi di essere più sicuri. Per questo lascia sorpresi che l’unico prodotto Apple che era da “forzare” fosse stato il browser Safari la scoperta del cui bug ha portato a Paul Mandred la cifra di 50.000 dollari.
Rimane poi un ultimo punto oscuro da considerare ovvero che magari alcuni dei Bug siano già stati scoperti dai concorrenti ma che aspettino il Pwn2Own o un concorso simile per renderli pubblici e incassare così più soldi di quanti ne riceverebbero se li comunicassero direttamente alle aziende interessate.
Speriamo che così non sia!

 

1 Una vulnerabilità zero-day è una qualunque vulnerabilità di un software non nota ai suoi sviluppatori o da essi conosciuta ma non gestita.
2 VPN è l'acronimo di Virtual Private Network, ossia “rete privata virtuale”, un servizio che protegge la connessione internet e la privacy online. Crea un percorso cifrato per i dati, nasconde l’indirizzo IP e consente di utilizzare gli hotspot Wi-Fi pubblici in modo sicuro.
3 Con il termine Superuser si indica un account utente speciale utilizzato per l'amministrazione del sistema. A seconda del sistema operativo (OS), il nome effettivo di questo account potrebbe essere root, amministratore, amministratore o supervisore.
4 Privilege escalation è un tipo di attacco di rete utilizzato per ottenere l'accesso non autorizzato ai sistemi all'interno di un perimetro di sicurezza.
5 RCE è un attacco informatico in base al quale un utente malintenzionato può eseguire comandi in remoto sul dispositivo informatico di qualcun altro. Le esecuzioni di codice remoto (RCE) di solito si verificano a causa di malware dannoso scaricato dall'host e possono verificarsi indipendentemente dalla posizione geografica del dispositivo.

Voglia di vintage: il ritorno del vecchio C64

È dagli anni ’90 che negli appassionati di computer è nata la voglia di retrò computer e retrò games. All’inizio erano solamente degli emulatori, prima il mitico MAME e poi di vari sistemi operativi che davano (e danno ancora) la possibilità di provare i computer a 8 o 16 bit come il Commodore64, l’MSX, il mitico ZX Spectrum di Sir Clive Marles Sinclair, il Mac Os, l’Amiga e molti altri. Oggi stanno uscendo anche emulazioni hardware come il C64 mini o l’Amiga 500 mini e presto un PC stile C64 con software nuovo e doppio sistema operativo.
Il primo emulatore, un hardware con una rom di 256Kb e non software, inizia il suo sviluppo il 12 dicembre del  1990 e prende il nome di Family Computer Emulator: una macchina ad opera di Haruhisa Udagawa che uguagliava il NES1 e che, nella sua semplicità e limitatezza (non poteva ad esempio riprodurre suoni, non supportava il microfono della Nintendo,  la CPU risultava molto lenta ed i file delle ROM Cartrige dovevano essere scaricati attraverso un processo complicato), permetteva di far girare alcuni storici giochi tipici della console Nintendo come  Donkey Kong, Space Invaders, Mario Bros. Il primo emulatore software di un computer, invece, fu quello - neanche a dirlo- del mitico Commodore 64, che iniziò ad apparire nelle BBS intorno al 1990; anche questo, che girava su macchine intel  permetteva soprattutto di far girare i videogiochi.
A metà degli anni ’90 esattamente tra il 1994 ed il 1995 iniziarono ad uscire anche i primi emulatori di giochi arcade2 autonomi, cioè in grado di emulare solo un singolo gioco o un solo tipo di console, via software. All’inizio giochi come, Ghosts'n Goblins, Bombjack, Asteroids, Mr. Do! Pac-Man, Lady Bug, iniziarono a tornare sui monitor dei computer girando ognuno su un suo software.
Nel 1995, quando l’Activision rilasciò "Atari 2600 Action Pack" per Windows 3.1, comparve il primo emulatore conosciuto di una console. Un paio d’anni dopo, nel 1997, uscì il progetto MAME (acronimo di Multiple Arcade Machine Emulator): un emulatore in grado di far funzionare pressoché tutti i vecchi tipi di giochi arcade tramite le proprie Rom3. Il suo funzionamento è molto semplice, basta copiare il file in formato zip contenente il gioco che si vuole nella directory denominata “ROMS” presente nella root del progamma e questo viene riconosciuto ed eseguito. Indipendentemente dal produttore che poteva essere Acclaim, Namco, Atari, Sega, Konami, o qualunque altro, il gioco funziona. Il progetto nasceva con l’intenzione di documentare il funzionamento dei videogiochi Coin-Up3 e preservare la storia e la memoria delle rarità.
Sebbene questi software fossero diventati diletto principale di soli Nerd, negli ultimi anni si è assistito ad un mercato di retrò computer sempre più in espansione dato che a molti utenti non era più sufficiente un semplice emulatore software ma erano alla ricerca dell’esperienza che avevano vissuto quando, da bambini, muovevano i primi passi nel mondo dei computer, aspettando anche 10 minuti (che sembravano ore!) il caricamento di un gioco o di un programma da un’unità a nastro. Vengono così tirati fuori dalle cantine i vecchi computer a 8bit o a 16bit che hanno fatto la storia, che non sono i vecchi pc IBM compatibili o i Mac II, ma soprattutto MSX, ZX Spectrum, e tanti, tantissimi Commodore che vengono riesumati, restaurati e usati o rivenduti.
Ad oggi un Commodor 64 “Biscottone” funzionante e in buone condizioni ha un prezzo base di 120€ che possono salire in base al fatto che abbia o meno la scatola originale, gli accessori o il Case non usurato dal tempo.
Ed è proprio l’azienda fondata da Jack Tramiel nel 1954 e chiusa nel 1994 a rappresentare (più dei prodotti di Apple o altre blasonate industrie) l’oggetto di rimpianto di tanti appassionati di informatica. Approfittando della nascente nostalgia di tanti ultraquarantenni per i computer della loro infanzia nel 2018 un’azienda londinese, la Retro Games Ltd, mette in commercio il Commodore 64 mini: una console che riproduce in scala (le dimensioni sono 20 x 10 x 3,5 cm contro i 40.4 x 21.6 x 7.5 cm dell’originale) la forma del mitico computer degli anni 80 e ne emula via hardware i videogiochi. A corredo della piccola console veniva fornito un joystick simile a quelli a microswitch utilizzati sui computer a 8 bit, che permette di far rivivere l’esperienza di un vecchio C64 ad prezzo sotto i 100€.
A seguito del successo del Commodore64 mini la stessa azienda nel marzo di quest’anno decide di far usciere una nuova console che emula, sempre via hardware, un altro dei computer storici di Tremiel: il 25 marzo 2022 esce l’Amiga 500 Mini, versione sempre in scala dell’omonimo computer a 16/32 bit (per approfondire la storia dell’Amiga invito a rileggere l’articolo: 30 Anni Fa Una Piccola Rivoluzione) accompagnata da un mouse che è la ricostruzione, per fortuna non in scala, dell’originale a due bottoni e da 25 videogiochi preinstallati. Anche in questo caso stiamo parlando solamente di una console di emulazione di videogiochi.
Ma la sorpresa più bella, per chi ha nostalgia dei vecchi computer e non può rinunciare alla modernità è in arrivo - anche questa - quest’anno. Dopo il fallimento del 1994 e dopo che la Commodore venne messa in liquidazione i suoi marchi ebbero tutto un susseguirsi di cambi di proprietà fino ad essere acquistati nel 2015 da una piccola holding italiana, con sede a Londra, che iniziò a produrre una serie di smartphone denominati Pet, Leo e Nus con il logo Commodore. L'azienda chiamata Commodore Business Machines Ltd. dopo una battaglia legale riuscì ad avere il diritto di utilizzare il logo originale e quest’anno ha annunciato l’uscita di un computer chiamato Commodore64GK.
La macchina, da quello che si è saputo fino ad ora, avrà un cabinet che ricorda per colori e forma dei tasti il mitico computer denominato “Biscottone” a causa della forma rotondeggiante ed il colore marrone; la tastiera, che conterrà tutta la circuiteria, sarà meccanica come l’originale ma non mancheranno Wi-fi, Usb e e Bluethoot per rendere il computer moderno. Allo stesso modo nuovo sarà il sistema operativo, anzi i sistemi operativi, visto che ne avrà ben due distinti: Windows11 e Chrome OS e l’utente potrà decidere in avvio quale dei due far partire.
Attenzione non si parla di dual boot ma di due sistemi separati che hanno due diverse CPU e diverso hardware mentre solo parte dei componenti saranno condivisi, un po’ come succedeva con l’Amiga 2000 e la scheda Bridgeboard.

Difficilmente chi non ha vissuto quegli anni potrà capire l’emozione che hanno dato i vecchi computer e per un appassionato, quando si ha la possibilità di poter usarne uno, è come guidare un’auto d’epoca. Non deve sorprendere quindi che il 2022 sia un anno che due distinte aziende hanno deciso di utilizzare per lanciare due diverse macchine che ricordano la stessa ditta storica; in particolare, con la scusa di voler celebrale i 40 anni dall’uscita del primo C64 “biscottone”, l’azienda Commodore International Ltd. ha deciso di fare un’operazione commerciale azzardata ma anche mirata. Il C64GK non sarà certo un computer per tutti visto che per giocare ci sono computer migliori e per l’uso in ufficio potrebbe rivelarsi scomodo, ma di certo il target di nostalgici non mancherà certo. Il prezzo sarà sicuramente impegnativo ma conosco già molte persone che attendono di poter mettere le dita sulla tastiera meccanica marrone.

 

1 Il Nintendo Entertainment System (NES), noto in Giappone con il nome di Famicom è stata una console per videogiochi a 8-bit prodotta da Nintendo tra il 1983 e il 1995.
2Un videogioco arcade (anche coin-op, abbreviazione di coin-operated, in italiano macchina a gettoni, sebbene il termine si possa riferire anche a giochi non necessariamente video, come i flipper) è un videogioco che si gioca in una postazione pubblica apposita a gettoni o a monete, costituita fisicamente da una macchina posta all'interno di un cabinato. Questo tipo di macchina si diffuse nella seconda metà del XX secolo  nelle sale giochi, nei bar o in altri luoghi pubblici analoghi; le sale giochi spesso raccoglievano solo, o soprattutto, videogiochi arcade. Gli arcade rappresentarono la prima generazione di videogiochi di largo consumo, e il primo contatto del pubblico con questa nuova forma di intrattenimento.
3 ROM Sigla di read only memory, particolare memoria non volatile (cioè capace di conservare i dati presenti anche in assenza di alimentazione) presente nei calcolatori elettronici; i dati sono inseriti durante la sua realizzazione, non potendo più essere modificati


NOTE BIBLIOGRAFICHE
8-BIT GENERATION: THE COMMODORE WARS. Film documentario del 2016 di Tomaso Walliser con Chuck Peddle, Jack Tramiel, Steve Wozniak

Cyberwar

Anche se da un punto di vista puramente strategico il recente conflitto scoppiato in Ucraina sembra riportare indietro la storia militare di quasi 80 anni dove è la fanteria ad avere il peso maggiore, abbiamo visto in questo conflitto per la prima volta l’utilizzo della “Cyberwar” come arma; come un bombardamento può mettere fuori uso le infrastrutture di un paese allo stesso modo un cyber-attacco può paralizzare aeroporti, treni e comunicazioni.

Il 24 febbraio l’aggressione della Russia all’Ucraina era stato anticipato da un attacco tramite un malware che aveva cancellato i computer di una banca ucraina e di un'agenzia governativa. Ma gli attacchi informatici alle strutture amministrative ed economiche ucraine erano iniziati già prima dell'invasione militare: il governo di Zelensky aveva segnalato un cyber-attacco il 14 gennaio che aveva preso di mira i siti web del ministero degli esteri del paese, il gabinetto dei ministri e i consigli della difesa. Un mese dopo i responsabili della cybersecurity ucraine hanno segnalato un attacco DDoS1 contro due delle maggiori banche del paese, PrivatBank e Oschadbank.

Affianco agli attacchi “ufficiali” portati avanti da entrambi i contendenti (anche l’Ucraina tramite una trentina di  gruppi di Hacker porta avanti una sua guerra informatica alla Russia) si sono schierati gruppi di hacktivisti2 come Anonymous che, il 26 febbraio ha dichiarato di essere sceso in guerra contro la Russia, creano danni e disservizi come l’Hackeraggio della TV russa con la trasmissione di immagini della guerra o il furto di 35 mila file della banca centrale russa  contenente anche contratti segreti; un'azione che ha bloccato il traffico ferroviario in Bielorussia, nazione che appoggia esplicitamente la Russia sia logisticamente che militarmente, è stata rivendicata dai un gruppo hacker.
Affianco a questi attacchi che creano disservizi gli attacchi informatici hanno anche una funzione più diretta nel conflitto: a quanto si è appreso le truppe russe in territorio ucraino non hanno sistemi di comunicazione radio criptati e sono state divulgate le frequenze e le istruzioni necessarie a intercettare gli ordini provenienti dalla catena di comando e le comunicazioni tra le truppe sul campo.

Ma in Italia siamo pronti ad affrontare una guerra informatica?
Il 23 marzo un attacco ransomware ha colpito Trenitalia bloccando la vendita dei biglietti nelle stazioni, nelle biglietterie e self service. Anche se l'attacco hacker sembra essere opera della gang di hacker russo-bulgaro Hive non si sa ancora se sia collegato alla guerra Russo-Ucraina, ma ci mostra la fragilità delle nostre strutture.
Questa fragilità era già stata notata nel luglio del 2021 quando il CED e i servizi informatici della Regione Lazio hanno subito un attacco ransomware3 anche se in quel caso non si è trattato di un attacco informatico mirato (a differenza di quanto ha più volte dichiarato il presidente della Regione Lazio Zingaretti) ma di un ransomware che è entrato nel sistema a causa della “svista” di un dipendente della regione in Smart working.
A tal riguardo risulta interessante e preoccupante al tempo stesso il rapporto Cert-Agid sulla sicurezza dei siti pubblici del dicembre 2020 che dice quanto i nostri dati affidati alle PA locali siano a rischio. Da questa ricerca risulta che 445 (2%) portali istituzionali risultano senza HTTPS abilitato; 13.297 (67%) di questi portali hanno gravi problemi di sicurezza; 4.510 (22%) hanno un canale HTTPS mal configurato; mentre solo 1.766 (9%) utilizzano un canale HTTPS sicuro. Quasi il 50% dei siti monitorati anziché utilizzare soluzioni ad hoc si affidano a dei CSM che non sempre sono aggiornati all’ultima versione.
Se affianco a questi problemi strutturali mettiamo anche il fatto che molti dei dipendenti pubblici non hanno alcuna conoscenza sulla sicurezza informatica e si comportano con superficialità come nel caso sopra citato dell’attacco ramsomware alla Regione Lazio il quadro generale che si presenta è quello di un possibile colabrodo.

L’ Agenzia per l'Italia digitale (AGID) ha emanato una serie di misure minime di sicurezza per le pubbliche amministrazioni che andrebbero attuate. A seconda della complessità del sistema informativo a cui si riferiscono e della realtà organizzativa dell’Amministrazione, le misure minime possono essere implementate in modo graduale seguendo tre livelli di attuazione: minimo, standard, avanzato.
Il livello minimo è quello al quale ogni Pubblica Amministrazione, indipendentemente dalla sua natura e dimensione, deve necessariamente essere o rendersi conforme; quello standard è il livello che ogni amministrazione deve considerare come base di riferimento in termini di sicurezza e rappresenta la maggior parte delle realtà della PA italiana; infine il livello avanzato deve essere adottato dalle organizzazioni maggiormente esposte a rischi in base alla criticità delle informazioni trattate o dei servizi erogati, ma deve anche essere visto come l’obiettivo di miglioramento da parte di tutte le altre organizzazioni. È importante sottolineare che sebbene queste linee guida risalgono al 2017 il rapporto Cert-Agid sulla sicurezza dei siti pubblici è del 2020 e mostra quindi quanto sia ancora molto il lavoro da fare.
Per ultimo bisogna inserire nelle nostre considerazioni sulla sicurezza informatica italiana anche il recente dibattito sull’aumento delle spese militari in Italia: da quanto riportato da Adolfo Urso, presidente del Copasir, "Più spese per la difesa servono anche alla cybersecurity".
In diverse Relazioni il Comitato parlamentare per la sicurezza della Repubblica ha documentato al Parlamento come la Russia fosse diventata un Paese molto attrezzato nella sfera cibernetica e quanto fosse importante la difesa cyber, indicando la necessità di estendere il “golden power”4 al sistema delle telecomunicazioni e la necessità di realizzare un perimetro nazionale sulla sicurezza cibernetica. Questi due obiettivi sono stati raggiunti mentre a giugno 2021 è stata realizzata l’Agenzia nazionale cibernetica (un risultato purtroppo arrivato con dieci anni di ritardo rispetto a Paesi come la Francia e la Germania).
Una parte dell’aumento delle spese previste per la difesa andrebbero quindi a finanziare l’Agenzia nazionale cibernetica dato che, come abbiamo visto, la Cyberwar è pericolosa come una guerra normale.

Se nelle aziende private il problema della sicurezza informatica è sentita da tempo, tanto che gli investimenti sono sempre più sostanziosi e riguardano anche la formazione del personale, lo stesso non vale per la pubblica amministrazione dove spesso mancano le competenze e la reale percezione del pericolo che rappresenta. Affianco a questo stiamo assistendo a prese di posizione ideologiche che impediscono l’attuazione di un vero piano di sicurezza a livello nazionale.
Anche se non si potrà mai avere una sicurezza informatica al 100% ma cercare di limitare i danni è diventato oggi non più un opzione ma un obbligo.

 

 

 

 

1 Un attacco DDoS (Distributed Denial of Service) è un'arma di sicurezza informatica mirata a interrompere le operazioni di servizio o ad estorcere denaro da organizzazioni mirate. Gli attacchi possono essere guidati da politica, religione, competizione o profitto. Un attacco DDoS è una versione distribuita di un attacco Denial of Service (DoS) con lo scopo di interrompere le operazioni aziendali. Questo attacco utilizza un grande volume di traffico per sovraccaricare le normali operazioni di interconnessione di servizio, server o rete, rendendole non disponibili. Gli attacchi DoS interrompono un servizio mentre gli attacchi distribuiti (DDoS) sono eseguiti su scala molto più ampia, con la conseguente chiusura di intere infrastrutture e servizi scalabili (servizi Cloud).

2 L’hacktivismo è una forma di attivismo digitale non violento, il cui scopo principale non è legato a interessi economici personali. Gli Hacktivisti con le loro campagne mirano a obiettivi politici, sociali o anche religiosi in linea con la causa propugnata da ciascun gruppo di appartenenza.

3 I ransomware sono virus informatici che rendono inaccessibili i file dei computer infettati e chiedono il pagamento di un riscatto per ripristinarli.

4 Il golden power è uno strumento normativo, previsto in alcuni ordinamenti giuridici, che permette al Governo di un Paese sovrano di bloccare o apporre particolari condizioni a specifiche operazioni finanziarie, che ricadano nell'interesse nazionale

 

 

BIBLIOGRAFIA:

https://cert-agid.gov.it/news/monitoraggio-sul-corretto-utilizzo-del-protocollo-https-e-dei-livelli-di-aggiornamento-delle-versioni-dei-cms-nei-portali-istituzionali-della-pa/
https://sog.luiss.it/sites/sog.luiss.it/files/Policy_paper_print.pdf
https://www.agid.gov.it/it/sicurezza/misure-minime-sicurezza-ict
https://www.gazzettaufficiale.it/eli/id/2017/05/05/17A03060/sg

Il web che verrà

Siamo alle soglie del web 3.0 che non è solo il metaverso, che del futuro web rappresenta una visione dall’impatto molto forte, ma il web che verrà, seppur ancora molto nebuloso oggi, sarà molto di più.

Fino al 1993 internet era utilizzato quasi esclusivamente da scienziati, università, centri di ricerca e militari, l’utilizzo e la consultazione era fatto quasi esclusivamente tramite riga di comando. Con “l’apertura” della rete a tutti quanti inizia quello che verrà definito web 1.0.
All’inizio il web non era altro che un’evoluzione delle vecchie BBS, dove gli utenti si collegavano a delle pagine, ospitate da server ed usufruivano dei contenuti in maniera passiva. Chi si collegava ad un sito poteva solo navigare, sfogliare un catalogo virtuale di prodotti, approfondire delle conoscenze o fare acquisti online.
Le possibilità di interazione con i siti è molto limitata e, solitamente, avveniva tramite e-mail, fax, telefono e pochissimi siti permettevano di uplodare contenuti personali tramite Common Gateway Interface1 sviluppati in C/C++ o Pearl che spesso erano complicate da sviluppare e costose.
Il flusso di comunicazione era quindi unidirezionale da parte del sito web aziendale o personale che dava informazioni a utenti passivi.
Da un punto di vista economico il modello che presenta il web 1.0 non discosta molto dai media comuni quali la televisione o i giornali: su una pagina o un sito internet vengono pubblicati banner pubblicitari a pagamento o tramite il metodo PPC (Pay Per Click).

Il web 2.0 si evolve dando l’opportunità agli utenti di interagire con i siti e diventando loro stessi creatori di contenuti. All’inizio sono solo piccoli blog personali e qualche social network come Myspace o Twitter, in particolare, è quest’ultimo che dà la prima innovazione permettendo ai suoi iscritti di pubblicare brevi messaggi, anche tramite SMS e la possibilità di “ri-twittare” questi ultimi quindi condividerli; un anno dopo la sua nascita, nel 2007, nascono con twitter gli hashtag che permettono di aggregare le notizie e così dalle bombe a Boston del 2013, alla guerra in Siria, chi è testimone di eventi importanti ha la possibilità di informare il resto del mondo.
Allo stesso modo i nascono i social network che permettono di creare reti di utenti che scambiano idee ed opinioni (naturale evoluzione dei newsgroup e dei forum del web 1.0) e creano la nascita di nuove aziende e giganti del web che raccolgono sui loro server i dati degli utenti oltre che i contenuti che vengono pubblicati. Siti come Youtube, Facebook, Instagram, “vivono” grazie ai contenuti che gli iscritti generano e non forniscono nulla all’infuori dell’infrastruttura necessaria molto semplice da utilizzare e molta pubblicità.
Ed ecco la prima grande differenza tra il web 1.0 ed il 2.0: le centralità. Esistono poche aziende che offrono servizi che le persone utilizzano e i dati ed i contenuti che gli utenti producono sono conservati sui server di poche aziende. Prima chi pubblicava qualcosa online, sia che fosse su un sito personale o su un blog era il proprietario dello spazio che utilizzava, in quanto veniva affittato da un provider e i dati personali così come i contenuti che vi erano pubblicati rimanevano di sua proprietà mentre con l’utilizzo di social o di siti che permettono di condividere idee, foto e quant’altro possibile l’utente “cede” i propri dati personali così come i contenuti che genera ad un’azienda terza che ne può usufruire liberamente.
Con il web 2.0 viene generato un nuovo tipo di interconnessione tra utenti e servizi che genera una convergenza digitale dove poche interfacce tendono ad aggregare più servizi: tramite l’account social possiamo iscriverci a servizi di streaming o di mail, sui social possiamo leggere le ultime notizie di un giornale senza dover andare sul sito del medesimo, tramite i social possiamo mandare un messaggio ad un amico o più amici ed organizzare uscite o riunioni. Tutti questi servizi sono accentrati in un unico posto, sia fisico che virtuale, di proprietà di poche Holding internazionali.
Il modello economico del web 2.0 è anch’esso un’evoluzione del precedente, non solamente si basa sulla pubblicità che viene presentata agli utenti, ma anche tramite la condivisione dei dati personali che questi memorizzano sui server dei quali sono fruitori. Ed ecco perché c’è la necessità di centralizzare i dati raccolti.
Questo non vuol dire che l’attuale versione del web sia completamente negativa. Basti pensare cosa sarebbe successo all’economia mondiale durante la pandemia di Covid-19 se non vi fosse stata la possibilità di fare Smart Working elastico e flessibile, reso possibile proprio grazie alle innovazioni tecniche scaturite a seguito dell’evolversi del web, come ad esempio l’utilizzo di tecniche WebRTC2 o di file Sharing3.

Il web 3.0 rappresenterà, si spera, un’evoluzione dell’attuale concetto di web eliminando per prima cosa la centralità ed in questo modo garantire una miglior privacy e sicurezza dei dati. Come per il web 2.0 quando nacque anche per il 3.0 non sono ancora definite delle regole e delle linee guida tanto che si parla ancora di “possibili” evoluzioni e non di certezze, anche se possiamo descrivere quello che probabilmente sarà.
I social rimarranno e si evolveranno dando la possibilità di utilizzare realtà aumentata o virtuale (come nel caso del Metaverso) e nasceranno sempre più spazi virtuali 3D simili a “Second Life”.
L’aumento di contenuti generati dagli utenti trasformerà il web in un enorme Database dove per poter accedere in maniera costruttiva alle informazioni si farà sempre maggior uso del web semantico4  e dell’intelligenza artificiale che imparerà a conoscerci e conoscere i nostri gusti e abitudini. Per poter utilizzare al meglio l’intelligenza artificiale sul web e garantire nel contempo la privacy bisogna però che  venga decentralizzata (oggi Alexa, Google, Siri, Cortana, ecc. accedono via web ai server centrali delle rispettive aziende per poter funzionare) e dovrà essere controllata da una grande rete aperta, riducendo i rischi di monopolio.
Per poter attuare un web più decentrato si utilizzerà sicuramente la tecnologia blockchain che, per sua natura, si presenta come un’ architettura decentralizzata. La stessa tecnologia che sta alla base delle criptovalute e che, utilizzata per la sicurezza del passaggio dati nelle filiere, sarà la base dalla quale partirà il web 3.0. La blockchain è una struttura dati condivisa e immutabile, assimilabile a un database distribuito, gestito da una rete di nodi ognuno dei quali ne possiede una copia privata. Tutto questo permetterà di eliminare i webserver centralizzati in quanto i singoli utenti diventano loro stessi dei “miniserver”.
Come l’internet dell’inizio questo metodo garantirà che se anche un nodo va in crash o il server centrale (come ad esempio quello che gestisce Whatsapp, o Youtube o Facebook) il nostro sistema continuerà a funzionare ed i dati continueranno ad essere disponibili tra gli utenti. Questo permetterà anche un passaggio della governance del servizio dove i singoli utenti avranno maggior potere rispetto all’azienda principale; anche le informazioni saranno rivoluzionate e verranno riunite da diverse fonti tramite tecnologie tipo XML, WSDL o simili in un unico database che non esiste realmente ma è semplicemente un raccoglitore, ma al quale si potrà attingere come fosse un normale database.

Il cambiamento non sarà veloce ma assisteremo ad una transizione più “dolce” rispetto a quella dal web 1.0 al 2.0. Per molto tempo i due differenti web (2.0 e 3.0) convivranno ma il cambiamento, anche se lento sarà molto più profondo perché non sarà tanto un cambiamento di come “vediamo” il web ma riguarderà i suoi più profondi paradigmi. Quando arriveranno il metaverso e i  su suoi simili saranno ancora sistemi che si basano sul concetto del web 2.0 dove tutto è ancora centralizzato ma dietro a questi compariranno sempre più servizi che si basano su strutture decentralizzate e, per chi fosse incuriosito, segnalo due esempi già esistenti: dtube (https://d.tube/)  e OpenBazaar (https://github.com/OpenBazaar/openbazaar-desktop/releases) rispettivamente l’equivalente di Youtube ed e-Bay ma… decentralizzati.


 

 

 

1La Common Gateway Interface (CGI) è un’interfaccia di server web che consente lo scambio di dati standardizzato tra applicazioni esterne e server. Appartiene alle prime tecnologie di interfaccia di Internet. Le CGI sono dei programmi residenti sul server che ricevono in input un “GET” dal client che viene elaborato e come risultato generano una pagina internet standard.

2Con WebRTC si possono aggiungere funzionalità di comunicazione in tempo reale alle applicazioni web, che altrimenti impossibile, a causa della tecnologia di comunicazione utilizzata sul protocollo internet. WebRTC  si basa su uno standard aperto. Supporta i dati video, vocali e generici nello scambio di dati, consentendo agli sviluppatori di creare soluzioni efficaci per voce e video. La tecnologia è disponibile su tutti i browser moderni e sui client nativi per tutte le principali piattaforme. Le tecnologie su cui si basa WebRTC vengono implementate come standard web aperti e disponibili come normali API JavaScript in tutti i principali browser. Per i client nativi, come le applicazioni Android e iOS è disponibile una libreria che fornisce la stessa funzionalità. Il progetto WebRTC è open source ed è supportato da Apple, Google, Microsoft, Mozilla e molti altri.

3 Il termine file sharing si riferisce ad un apposito sistema che consente agli utenti di condividere file e documenti sul web o all’interno della medesima rete. Grazie ai programmi e siti di file sharing è infatti possibile trasferire dei documenti da un device all’altro.

4  Nel Web semantico ad ogni documento (un file, un’immagine, un test, etc.) sono associate informazioni e metadati che, fornendo un contesto semantico, ne rendono più facile l’interrogazione e l’interpretazione automatica da parte di un motore di ricerca. L’idea viene ipotizzata alla fine degli anni ’90 da Tim Berners-Lee dove ipotizzava un futuro dove  “..il commercio, la burocrazia e le nostre stesse vite quotidiane saranno gestite da macchine che parlano con altre macchine” .

 

 

BIBLIOGRAFIA:

Berners-Lee, M. Fischetti, “Weaving the Web“, 1999
Dev, maggio 2006, “Meta Content Frameworks e Rsource Decripti on Frameworks”, pp.61-66

Il metaverso evoluzione della realtà virtuale e di internet.

Molti utenti whatsapp si saranno accorti che da qualche tempo il celebre programma di istant messaging non reca più la scritta “From Facebook” ma bensì “From Meta”. Le male lingue hanno insinuato che questo cambiamento è dovuto al recente scandalo - il secondo per gravità dopo quello di Cambridge Analytica – emerso dalle dichiarazioni della whistleblower Frances Haugen riguardo diverse pratiche dannose di cui Facebook era consapevole e, di conseguenza, ad un tentativo da parte della società di rilanciare la propria immagine uscita acciaccata dai “facebook pappers”.
Così, dopo mesi di anticipazioni, smentite e retroscena, è arrivato l’annuncio ufficiale: il “gruppo Facebook” cambierà nome e si chiamerà “Meta” che in greco vuol dire oltre e l’intenzione (a parole) di business model dall’azienda di Menlo Park  fin qui seguito è quella di andare “oltre” l’utilizzo di app  tra loro interconnesse come Facebook, Instagram, Messenger, Whatsapp, ecc.
Questo non vuol dire che le nostre app che tutti i giorni guardiamo e utilizziamo cambieranno nome, Facebook continuerà a chiamarsi Facebook, Whatsapp con il suo nome e così tutte le altre.
No, l’idea di Zuckerberg & Co. È quella di creare una nuova realtà virtuale, totalmente immersiva che ci dovrebbe accompagnare nella vita di tutti i giorni dal lavoro alla socialità.

Quella proposta da Zuckerberg non è una novità nel mondo dell’informatica né tanto meno dell’intrattenimento.
L’idea di una realtà immersiva si può far risalire alla metà del secolo scorso, quando un giovane cineasta, Mort Heiling vide a Brodway il film “This is Cinerama” proiettato su schermo gigante e ricurvo, che prende il nome appunto di Cinerama.
Da quell’esperienza Heiling ebbe l’idea di creare un dispositivo che permetteva a chi lo utilizzava di provare vere sensazioni e che chiamò “Sensorama”. Si trattava di una cabina in grado di ospitare una persona e che combinava effetti tridimensionali tramite un visore stereoscopico sul modello del View-Master 1, suono stereofonico, vibrazioni per mezzo di un manubrio che veniva afferrato e soffi di profumi. Quello che sensorama permetteva di fare era di creare nello spettatore un’esperienza il più realistica possibile di una corsa in un mercato dei fiori, su di una spiaggia e sulle strade di Brooklyn. Brevettato nel 1962 non ebbe successo tra le grandi case cinamatografiche e divenne famosa come macchina a gettoni nei luna park.
Qualche anno dopo (1965) un giovane ingegnere di nome Ivan Sutherlan ebbe l’idea che si potessero utilizzare i computer per il lavoro di progettazione; secondo Sutherlan un monitor collegato ad un computer offriva la possibilità di acquisire familiarità con concetti impossibili da realizzare nel mondo reale. Con quest’idea nel 1968, mentre era ancora professore all’università di Harvard, insieme ad alcuni suoi studenti tra i quali Bob Sproull, Quintin Foster, Danny Cohen creò il primo casco per la realtà virtuale.
Ma i mondi virtuali non devono solo essere percepiti ma c’è bisogno che si possa interagire con loro, così nel 1970 Myron Krueger, pioniere della computer art, interessandosi “agli ambienti sensibili controllati dal computer” coniò il termine realtà artificiale. Secondo Krueger la tastiera teneva lontani tanti utenti nell’accostarsi al computer per creare espressioni artistiche e così ideo “Videoplace”: un sistema  composto da una telecamera controllata da un computer e da un grande schermo. Quando un utente si metteva davanti alla telecamera la sua immagine veniva catturata dal computer, proiettata sullo schermo e combinata con le immagini ivi presenti. L’immagine della persona era rappresentata come una silhouette e interagiva con gli oggetti presenti sullo schermo spingendoli, afferrandoli, alzandoli, ecc.
Il progetto di Krueger morì perché non ottenne finanziamenti per il suo sviluppo mentre nello stesso periodo il Governo Federale degli Stati Uniti investiva ingenti somme nello sviluppo della tecnologia “Moviemap” del MIT che consentiva all’utente di muoversi attraverso una versione video di Aspen toccando semplicemente alcune parti dello schermo. Da lì, nel 1981, nacque il progetto “SuperCockpit” dell’aereonautica militare sotto la direzione di Tom Furnes: una finta cabina di pilotaggio che utilizzava alcuni computer e un casco virtuale per addestrare i piloti al combattimento.
Il SuperCockpit aveva però costi altissimi e la Nasa nel 1990 sviluppò “VIEW” (Virtual Interface Environment Workstation), il primo sistema a combinare grafica computerizzata, immagini video, riconoscimento vocale, un casco per la realtà virtuale ed un guanto tattile (inventato nel 1982 da Tom Zimmermann e Jaron Lainer quando lavoravano alla Atari).
L’idea della Nasa di utilizzare tecnologie già presenti e relativamente economiche per creare simulazioni realistiche per le future missioni spaziali fece capire che era possibile creare une realtà artificiale senza dover investire milioni di dollari.
Gli inizi degli anni ’90 videro un fiorire di idee per la realizzazione di realtà virtuale con progetti fai da te come gli schemi per poter collegare il “Power Golve”2 della mattel (creato per la piattaforma videoludica della Nintendo) ad un normale computer tramite porta parallela3 nonché  i relativi codici per programmarlo tramite linguaggio C, la nascita di diversi software a pagamento o freeware per la creazione di mondi ed in fine, la commercializzazione dei primi caschi di realtà immersiva a prezzi relativamente bassi ( qualche centinaia di migliaia di lire).
Qualche anno più tardi le prime webcam che venivano commercializzate spesso erano accompagnate da programmi che permettevano (come nel caso della webcam LG LPCU30) di interagire con immagini generate al computer come nel videoplace di Krueger.

Nella letteratura fantascientifica l’idea di mondi virtuali ha preso piede, soprattutto nella cultura Cyber Punk in romanzi come “Neuromante” o “Aidoru” di William Gibson dove il reale ed il virtuale si fondono in un’unica realtà soggettiva. Ed è proprio dalla cultura Cyber Punk che nasce il termine “Metaverso” utilizzato da Zuckerberg per la sua nuova creatura, in particolare dal romanzo “Snow Crash” del 1992 di Neal Stephenson. Nella cultura mainstream, l’idea di un mondo virtuale dove le persone interagiscono lo si trova in film come “Il 13° piano” tratto dal romanzo “Simulacron 3” di Galouye o la trilogia di “Matrix” (sempre ispirata dallo stesso romanzo).
Sulla scia di questi successi cinematografici, dell’interesse per la realtà virtuale, la massificazione di internet, nonché la nascita dei primi social network, nel 2003 nasce “Second Life”: un mondo virtuale dove gli utenti (chiamati anche residenti) accedono al mondo virtuale attraverso un loro avatar e dove possono muoversi liberamente, interagire con altri utenti e acquistare beni e servizi virtuali o reali pagando con tanto di moneta virtuale convertibile in dollari o euro.
Dopo un inizio un po’ difficile (le risorse chieste ai computer erano impegnative ed inoltre in Italia le connessioni internet erano ancora lente), Second Live ha raggiunto il massimo di utenti nel 2013 con un milione di abbonati per poi assestarsi tra gli 800.000 ed i 900.000. Negli ultimi anni diverse piattaforme sono nate, soprattutto a livello video ludico, per permettere agli utenti di interagire con mondi virtuali, come “Minecraft”, “Fortnite” o “The Sandbox” molto simile al metaverso di Meta.

Cosa fa allora pensare a “Meta” che il suo “Metaverso” sia diverso da tutte le realtà già presenti?
Innanzi tutto bisogna considerare che il metaverso farà largo delle tecnologie di realtà virtuale sviluppate negli ultimi anni come i visori sitle Hololens alle quali affiancherà hardware sviluppato autonomamente già in progettazione (ad esempio i guanti tattili). In aggiunta a ciò Facebook/Meta può vantare un vasto background di utenza e una vasta esperienza nel coinvolgere gli internauti a diventare sempre più dipendenti dai propri prodotti.  Un’altra freccia all’arco di Zuckerberg è l’idea di presentare il metaverso come un mondo alternativo che però interagirà con quello reale e non sarà solamente un luogo di svago o di fuga, ma una piattaforma per poter anche lavorare, creare riunioni virtuali, lezioni virtuali il tutto tramite un avatar.
Certo la concorrenza non mancherà visto che Microsoft, a pochi giorni dall’annuncio di Meta ha presentato il suo metaverso durante Ignite 2021 (la principale conferenza Microsoft dedicata al mondo Enterprise) al quale si potrà accedere tramite la piattaforma Microsoft Mesh per Teams e che farà uso di visori a realtà aumentata. Come per il metaverso di Menlo Park anche quello di Redmond punta soprattutto agli utenti che professionisti che lavorano e lavoreranno (si presume in un futuro prossimo sempre di più) in smartworking.

Ma abbiamo davvero bisogno di un metaverso?
A usufruire della nascita dei metaversi saranno principalmente le aziende produttrici di accessori per realtà aumentata o virtuale che ad oggi hanno avuto un mercato molto limitato visto il costo dell’hardware e i settori di applicazioni molto di nicchia, mentre per l’utente consumer, invece, il vantaggio sarà un graduale abbassamento del prezzo del sopracitato hardware.
Come tutte le tecnologie anche il metaverso può essere sia un bene che un male, dipende dagli usi che ne verranno fatti e dalla consapevolezza e maturità degli utenti.
Purtroppo abbiamo visto come, negli ultimi 15-20 anni internet, che è una tecnologia che permette di ampliare le proprie conoscenze e migliorare la vita dei singoli utenti, sia diventato monopolio di grandi multinazionali e ricettacolo di pseudo-verità e futili intrattenimenti, quando non anche per creare disinformazione (non ultimi i famosi Facebook pappers).
Il metaverso è la naturale evoluzione dell’internet che conosciamo, ci vorranno anni per vederlo sviluppato alla massima potenza, per adesso abbiamo solo aziende come Microsoft, Roblox, Epic Games, Tencent, Alibaba e ByteDance che stanno investendo ma quello che sarà non è ancora definito; saremo noi, come è accaduto con lo sviluppo di internet, che decideremo cosa nascerà, facendo scelte che a noi sembreranno insignificanti ma che le grandi multinazionali usano per fare soldi. Lo scandalo Facebook, dove venivano evidenziati i post che creavano il maggior numero di interazioni al solo scopo di creare traffico, indipendentemente dalla verità o meno dei post stessi, ne è un esempio. Quindi quando inizieremo ad usare il metaverso, stavolta, ricordiamoci fin dall’inizio che saremo noi a creare il nostro futuro mondo virutale. Sarà diverso il metaverso o diventerà l’ennesimo spazio dove si rifugeranno le persone per scappare alla realtà? A noi la scelta!

 

BIBLIOIGRAFIA
Linda Jacobson, “Realtà Virtuale con il personal Computer”, Apogeo, 1994.
Ron Wodaski e Donna Brown, “Realtà virtuale attualità e futuro”, Tecniche Nuove, 1995
https://www.nasa.gov/ames/spinoff/new_continent_of_ideas/
https://news.microsoft.com/it-it/2021/11/02/il-microsoft-cloud-protagonista-a-ignite-2021-metaverso-ai-e-iperconnettivita-in-un-mondo-ibrido/

 

1 View-Master è stato un sistema di visione stereoscopica inventato da William Gruber e commercializzato per prima dalla Sawyer's nel 1938. Il sistema comprende: un visore stereoscopico, dischetti montanti 7 coppie di diapositive stereo, proiettori, fotocamere (Personal e MKII) e altri dispositivi per la visione o la ripresa di immagini stereoscopiche.
2 Il Power Glove è un controller nato per il NES del 1989. Fu sviluppato dalla Mattel, ma il progetto si ispirò a un’invenzione di Tomm Zimmerman, che realizzò una periferica per l’interfacciamento a gesti manuali basata su un guanto cablato a fibre ottiche. L’idea di Zimmerman venne addirittura finanziata dalla NASA. La Mattel sviluppò questa periferica ma utilizzando tecnologie molto meno recenti, per rendere il Power Glove economico e più robusto.
3 L’interfaccia per collegare il power glove al PC tramite interfaccia parallela venne sviluppata da Mark Pflaging

Internet Gaming Disorder: l’esagerazione cinese e la non considerazione occidentale

Quando alla fine dell’agosto 2021 il Governo Cinese, tramite gli organi di informazione ufficiali, annunciò l’introduzione di nuove misure restrittive nel campo dei videogiochi online nel tentativo di fermarne la dipendenza, tutti i giornali riportarono la notizia con molta enfasi dimenticando che, che già alla fine del 2017, l'Organizzazione mondiale della sanità (OMS) aveva annunciato che nell’ undicesima revisione dell’ edizione  della Classificazione internazionale delle malattie (ICD-11) che entrerà in vigore il primo gennaio 2022, il disturbo da gioco sarebbe stato identificato come un nuovo disturbo e che la stretta del Governo Cinese era già iniziata nel 2019 quando aveva vietato l’utilizzo agli utenti di età inferiore ai 18 anni di giocare ai videogiochi tra le 22 e le 8 del mattino e, comunque, per non più di 90 minuti nei giorni feriali. Quello che Pechino chiede alle aziende che offrono videogiochi online è però adesso qualcosa di più drastico, ovvero di attuare controlli più accurati su chi utilizza le loro piattaforme attraverso delle verifiche più rigorose che prevedono l’utilizzo di dati reali degli utenti e del riconoscimento facciale per poter accedere e utilizzare i servizi di queste ultime.
Secondo alcuni analisti la decisione del Governo Cinese è vista come una nuova fase della guerra “Hi-Tech” tra Pechino e Washington, (dato che la maggior parte dei giochi online sono creati da software house USA) mentre per altri rappresenta un nuovo modo che il regime cinese ha per controllare i propri cittadini.

Ma i video giochi ed in special modo quelli online portano davvero alla dipendenza?
A memoria di chi scrive questa diatriba tra chi sostiene la dipendenza e chi no è sempre esistita, tanto da ricordare che alla fine degli anni ’80 avevo letto un articolo che difendeva i videogiochi (purtroppo non  ricordo il nome della rivista) dove l’autore sosteneva che giocare ai videogiochi – n.d.r. delle sale giochi – non solo non era pericoloso ma addirittura aiutava la coordinazione tra occhio e mani.
Da allora sono passati ormai quasi quarant’anni ma regolarmente quest’idea della dipendenza da gioco continua a comparire.
Uno studio pubblicato sull'American Journal of Psychiatry nel marzo 2017(1) ha cercato di esaminare la validità e l'affidabilità dei criteri per il disturbo da gioco su Internet, confrontarlo con la ricerca sulla dipendenza dal gioco online e stimarne l'impatto sulla salute fisica, sociale e mentale. Lo studio ha rilevato che tra coloro che hanno giocato ai videogame, la maggior parte non ha riportato alcun sintomo del disturbo da gioco online e la percentuale di persone che potrebbero qualificarsi per l’Internet Gaming Disorder è estremamente piccola.
La ricerca che ha coinvolto diversi studi su adulti negli Stati Uniti, nel Regno Unito, in Canada e in Germania ha evidenziato che tra gli individui che hanno manifestato il disturbo da gioco su Internet tutti avevano una salute emotiva, fisica e mentale indebolita rispetto a quelli che non l’ hanno manifestato.
Scrivendo in un commento sullo studio sull'American Journal of Psychiatry, Patrick M. Markey (professore del Dipartimento di Psicologia di Villanova University College of Liberal Arts and Sciences)  , e Christopher J. Ferguson (dottore in psicologia clinica presso l'University of Central Florida MS, psicologia dello sviluppo, Florida International University BA, psicologia presso Stetson University), hanno concluso che lo studio suggerisce che "la dipendenza da videogiochi potrebbe essere una cosa reale, ma non è l'epidemia che alcuni hanno immaginato essere".


Sicuramente i videogiochi di oggi, che fanno uso di internet per creare coinvolgimenti con altri utenti, sono fatti per creare situazioni nelle quali chi gioca è invogliato a continuare a giocare tramite l’acquisizione di crediti in base ai livelli che superano oppure comprandoli direttamente. Molte volte (soprattutto per i giochi che si svolgono sui dispositivi mobili) tra un livello e l’altro compaiono schermate pubblicitarie che invitano a comperare crediti o bonus per agevolare il superamento del livello successivo o dello stesso.
Una simile struttura di gioco se risulta pericolosa per un adulto sicuramente per un minore può essere distruttiva. Consideriamo poi che il recente periodo di Lockdown dovuto al Covid-19 ha portato molte persone a rimanere chiuse in casa ed a usufruire di servizi di intrattenimento online alternativi come i giochi.

Ma come si manifesta disturbo da videogioco? Secondo quanto riportato dall’ OMS nell’ IDC-112, con una serie di comportamenti persistenti o ricorrenti legati al gioco, sia online che offline, consistenti in: un controllo alterato sul gioco; una sempre maggiore priorità data al gioco tale che quest’ultimo diventa attività prioritaria nella vita rispetto ad altre attività quotidiane e rispetto agli interessi; una continua escalation del giocare a scapito di relazioni personali, familiari, sociali, educazionali, occupazionali. Per finire affinché venga considerato patologico il comportamento si deve reiterare per 12 mesi.
Da quanto riporta l’OMS sembra che non vi siano moltissime differenze tra la dipendenza da videogiochi e altre dipendenze e l’aggiunta dei videogiochi all'elenco delle dipendenze comportamentali riconosciute potrebbe aiutare milioni di persone bisognose, ma, allo stesso tempo, potrebbe anche “patologizzare”  un comportamento normale e creare un nuovo stigma, un marchio, da apporre a chiunque passi troppo tempo a giocare per il puro divertimento.


Le misure che prende il governo cinese, seppur eccessive vanno viste nell’ottica di un governo che ha comunque una struttura di regime che, vorrebbe “moralizzare” i suoi cittadini. I governi liberali occidentali dovrebbero comunque considerare di varare a breve delle misure che impongano delle misure di contenimento per quanto riguarda il tempo che minori e pre-adolescenti passano a giocare online.
Il mondo cambia velocemente e la società gli va a ruota ma non sempre la politica si muove alla stessa velocità!

 

 


1Internet Gaming Disorder: Investigating the Clinical Relevance of a New Phenomenon, 4 novembre 2016
WHO, Addictive 2018 behaviours: Gaming disorder, 14 settembre

 

Bibliografia:
https://ajp.psychiatryonline.org/doi/full/10.1176/appi.ajp.2016.16020224
(Ultima consultazione settembre 2021)

https://www.who.int/news-room/q-a-detail/addictive-behaviours-gaming-disorder
(Ultima consultazione settembre 2021)

Microsoft vuole ridisegnare il futuro dei sistemi operativi?

Dopo l’insuccesso di Windows 8.0 nel luglio 2015 Microsoft, alla presentazione del nuovo sistema operativo Windows 10, dichiarava molto decisa che quello che usciva in quei giorni sarebbe stato l’ultimo sistema operativo rilasciato dalla casa di Redmond, e che "Non ci sarà nessun Windows 11", ma solamente aggiornamenti gratis di Windows 10.
Il traguardo che  Satya Nadella (CEO Microsoft) puntava a realizzare sei anni fa non era un semplice sistema operativo ma un servizio, un sistema che sarebbe stato integrato e che avrebbe dovuto destreggiarsi fra più categorie di prodotti che passavano da software e servizi (come Azure), fino ad arrivare all'hardware, con smartphone, tablet e dispositivi 2-in-1.
Quello che è successo poi è abbastanza chiaro agli occhi di tutti, l’uscita dal mercato degli smartphone (che la stessa Microsoft aveva iniziato a creare prima di Apple e di Google già dal 1996 con Windows Ce) e la crescita invece dei suoi servizi in Cloud come Azure o Office 365, ha  portato l’azienda a rivedere le proprie idee così, a metà del 2021, delle grandi novità vengono presentate da Microsoft nell’ambito dei sistemi operativi.

La prima di queste novità è stata annunciata il 24 giugno 2021 e riguarda il successore di Windows 10 che si chiamerà, perlappunto Windows 11!
Da un punto di vista tecnico, stando a quanto dichiarato, le richieste Hardware non sono molto diverse da quelle del suo predecessore a parte il fatto che richiede obbligatoriamente un account Microsoft, una connessione a internet e la presenza di un BIOS UEFI e del chip TMP21 per il Secure Boot 2 .
La scelta di utilizzare questo tipo di BIOS e la presenza del chip è dovuta principalmente  per impedire ai malware (in special modo ai rootkit) di modificare la procedura di avvio del sistema ed eseguirsi automaticamente prima del caricamento di Windows costituendo un grave rischio per la riservatezza e l'integrità dei dati. I vecchi computer che utilizzavano il BIOS Legacy, anche se hanno una sufficiente quantità di Ram e un processore adeguato non saranno quindi in grado di utilizzare il nuovo sistema operativo. Microsoft dichiara di aver sviluppato Windows 11 attenendosi a tre principi: sicurezza, affidabilità e compatibilità.
Per quanto riguarda l’utilizzo di un account Microsoft, questo è necessario solamente per la versione Home del sistema operativo, per la versione Pro o successive si può anche utilizzare un account locale.
Da un punto di vista grafico la novità più sorprendente è il nuovo layout del  desktop e la riconfigurazione della barra delle applicazioni e del menù di start, molto simile a Mac O/S o a certe distribuzioni Linux quali Elementary OS o Deepin Os.
Se questa scelta premierà Microsoft o la penalizzerà, come successe con windows 8.0 che aveva abbandonato il classico menù di start (vedi articolo su questo sito “Start è tornato” del 2015) lo vedremo nei prossimi mesi.

La seconda grande novità nel settore dei sistemi operativi riguarda il rilascio della prima distribuzione3 Linux targata Microsoft e chiamata: CBL-Mariner .
Prima dell’avvento dell’era di Satya Nadella alla guida dell’azienda di Redmond Linux era considerato un rivale, ma con l’esborso di 500 mila dollari annui l’azienda di Redmond dal 2016 è entrata a far parte del consiglio d’amministrazione della Linux Foundation e si è aperta al mondo dell’Open Source che, non è più visto come un rivale, ma come un’opportunità. Ad oggi il 40% delle macchine virtuali su Azure (il cloud Microsoft) girano su sistemi Linux e in uno degli aggiornamenti di windows 10 è stato introdotto Power Shell tipico del mondo linux.
CBL-Mariner era utilizzata fino ad ora  solamente come strumento di test interni di Microsoft e pensata per l’utilizzo dei server.  La versione 1.0 di questa distribuzione Linux è diventata stabile a novembre e utilizzabile sui server avendo come caratteristica la leggerezza del sistema dato che, come idea base per la distribuzione,  serve solo un core di pacchetti per gestire i servizi cloud ed edge.
Da un punto di viste puramente tecnico la distribuzione Microsoft di Linux usa Ubuntu come build4 ma per la gestione dei pacchetti utilizza  i procedimenti di Fedora (un’altra distribuzione linux).
Siamo quindi passati da Steve Ballmer (predecessore di Nadella) che diceva che “Linux è un cancro da estirpare” ai ringraziamenti pubblici al Photon OS Project, al  Fedora Project, al Linux from Scratch, a OpenMamba distro, a GNU e alla Free Software Foundation (FSF). Qualcosa di impensabile.

L’ultima grande novità riguarda comunque la presentazione di Windows 360.
Seguendo la linea di Office 365 che offriva la possibilità di utilizzare il programma Office in cloud Microsoft decide di provare a creare un sistema operativo che si utilizza in Cloud, svincolato quindi dall’Hardware e estremamente configurabile. Vi sono due versioni del sistema operativo in streaming “Enterprise” e “Business” e si parte da una configurazione base che comprende una vCpu con 2Gb di Ram e 64 Gb di archiviazione con un prezzo di 21,90 euro al mese ad una configurazione massima che comprende  8 vCpu con 32Gb di Ram e 512Gb di archiviazione per un prezzo di 147,50 euro al mese anche se la Microsoft lascia intendere che si può trattare per configurazioni personalizzate.
Sicuramente i prezzi sono molto più alti di quanto possa essere l’acquisto di un sistema operativo windows normale, ma bisogna considerare che questa soluzione, per ora, è offerta principalmente ad aziende organizzazioni con un massimo di 300 dipendenti ed a grandi imprese che Microsoft considera compagnie con più di 300 dipendenti e non all’utente finale.
La scelta di Microsoft sembra quando mai adatta in questo periodo in quanto parliamo di  un’innovazione che facilita i modelli di lavoro basati sulla flessibilità e lo smart working, divenuti ormai la nuova normalità come conseguenza della pandemia. Molte aziende già adesso utilizzano soluzioni simili tramite la connessione a Desktop remoto ed un server Windows che permette di connettersi da un computer remoto ed utilizzarne le risorse come si fosse in locale.
Il concetto di Sistema Operativo remoto non è certo nuova: fino all’inizio degli anni ‘90 del secolo scorso moltissime università ed organizzazioni utilizzavano questo approccio (su sistemi Unix) dove gli utenti si collegavano in remoto ad un server sul quale giravano i software necessari ma, la limitazione hardware dei tempi sia per quanto riguardava la potenza delle CPU e la Ram disponibile sui server, sia i costi e le velocità di connessione (stiamo parlando di modem digitali/analogici/digitali da 300 a 2400 bps5) ne limitavano il tempo/macchina disponibile per ogni utente fino a quando, grazie alla massificazione dei personal computer, questo approccio venne quasi ovunque abbandonato.

Microsoft, con le sue ultime due ultime novità (CBL-Mariner e Windows 365) sembra voler abbandonare il suo classico approccio al mondo dei Sistemi Operativi e gettarsi in nuove esperienze: da una parte abbiamo l’entrata nel mondo Open Source per i sistemi Server e dall’altra un ritorno alla centralizzazione dei servizi.
Se queste scelte verranno premiate dal mercato solamente il futuro lo potrà dire ma, di sicuro, rappresentano due grandi novità anche per il futuro che si sta disegnando.

 

 

 

 

1   Il Trusted Platform Module è un Chip che consente di proteggere a livello hardware informazioni riservate e dati sensibili oltre che permettere di gestire le chiavi di Secure Boot, per memorizzare dati di autenticazione.
2
Secure Boot è una funzionalità che fa parte dei BIOS UEFI e che permette di bloccare tutti i componenti caricati all'avvio del sistema che non sono approvati perché sprovvisti di una chiave crittografica autorizzata e memorizzata a livello di firmware
3 La natura di sistema operativo open source e completamente riadattabile ha permesso, con gli anni, che si sviluppassero versioni sempre nuove e differenti che però si basano sullo stesso Kernel (nocciolo). Queste versioni che vengono rilasciate da vari produttori e comprendono differenti pacchetti di applicazioni prendono il nome di distribuzioni.
4 Una build è un insieme di pacchetti e le istruzioni per compilarli.
5 Bps = Bit per second

Ed i miei dati?

Nel 1086 Guglielmo il Conquistatore diede origine a quello che viene definito il più antico catasto inglese ed il primo di tutto il medioevo: il “Domesday Book”. Il manoscritto originale, scritto in latino su pergamena , è tutt’ora esistente e conservato negli archivi nazionali britannici, nel distretto londinese di Kew.
Nel 1983, durante il governo Thatcher, si decise di fare un “Domesday Book” nuovo che utilizzasse le più moderne tecnologie allora disponibili: il videodisco ed il microcomputer. Quindici anni più tardi tutto il lavoro fatto rischiava di essere inutilizzabile in quanto, anche se il supporto era ben conservato era diventato quasi impossibile trovare un lettore per il videodisco ed un microcomputer in grado di decodificare i dati.
Per fortuna si riuscì a trovare un lettore ed un computer adatti, a recuperare tutto e mettere online i contenuti.
La scelta nel 1983 di utilizzare come supporto un videodisco non sembrava strana: negli anni ’80 la tecnologia laser per la lettura dei dati era al suo inizio e rappresentava il futuro. Il metodo per creare questi supporti, inoltre, era molto simile a quello dei normali CD (nati solamente da pochi anni) e, come loro, anche il videodisco era considerato il supporto perfetto in quanto era robusto, e destinato a durare a lungo.
Purtroppo gli inizi degli anni ’80 hanno rappresentato non solo l’inizio della massificazione dell’informatica ma anche il suo “brodo primordiale” nel quale vi era una quantità enorme di sistemi operativi, formati e standard diversi che nascevano e morivano. Per fare un esempio il DOS 1.2 che sarebbe diventato il sistema operativo di riferimento per le macchine XT compatibili era stato commercializzato da appena un anno ed in breve tempo la “lingua” nel quale erano stati memorizzati i dati del nuovo “Domesday Book” digitale era diventata sconosciuta e anche i mezzi erano spariti.
Fin dall’inizio dell’invenzione della scrittura, l’uomo ha conservato i documenti pensando che si potessero consultare per sempre purché non si rovinasse il supporto sul quale erano “memorizzati”: una vecchia pergamena sarà sempre leggibile (a patto di conoscere la lingua nella quale è stata scritta) semplicemente aprendola, così come un libro o una tavoletta cuneiforme. Il passaggio al digitale ha dimostrato che questo non è più possibile e che, oltre all’informazione, è importante avere anche lo strumento per leggerla. Nel 1965 Gordon Moore, cofondatore dei Intel, elaborò quella che passerà alla storia come legge di Moore: “La complessità di un microcircuito, misurata ad esempio tramite il numero di transistor per chip, raddoppia ogni 18 mesi (e quadruplica quindi ogni 3 anni).”  Questa affermazione, basata su osservazioni empiriche, si rivelò esatta e divenne l’obbiettivo che tutte le aziende produttrici di microprocessori si pongono come obbiettivo.
Come diretta conseguenza di questo abbiamo una costante accelerazione della tecnologia e una conseguente evoluzione dei sistemi informatici. Prendiamo ad esempio il classico floppy disk: si è passati dal primo floppy ad 8 pollici a quello da 5 ¼ per finire con quelli da 3 ½ negli anni ’90 e primi anni del nuovo secolo per poi sparire completamente. Se oggi è ancora possibile trovare un lettore per “dischetti” da 3.5 pollici è molto difficile trovarne di quelli che leggono quelli precedenti da 5 ¼ e quasi impossibile quelli da 8” e chi trovasse in soffitta dei vecchi floppy quasi certamente si troverebbe nella condizione di non sapere cosa farsene o come leggerli.
Pensare che questo problema riguardi solamente i mondo dei computer è sbagliato.
Anche le cassette musicali o i vecchi video su VHS o Video 8 hanno subito lo stesso destino: gli strumenti per leggere questi supporti sono gradualmente spariti dagli scaffali dei negozi di elettronica e chi ha ancora delle vecchie video cassette, magari con le vacanze fatte con la famiglia una ventina d’anni addietro, rischia di non poterle più rivedere tra qualche decade.
Ma a creare problemi nel passaggio dall’analogico al digitale non è solamente l’utilizzo di un supporto anziché un altro ma anche, come abbiamo visto, la “lingua” nella quale le informazioni sono memorizzate, in particolare se la tecnologia ed il metodo di codificarle utilizza un formato proprietario.
I formati proprietari sono, in genere, dei metodi di codifica delle informazioni che utilizzano algoritmi che appartengono a qualche azienda o organizzazione che ne dispone i metodi di utilizzo. Se un domani chi detiene il brevetto per questo tipo di codifica decidesse di non renderlo più disponibile nei suoi programmi o in quello di altri si perde la possibilità di poter accedere nuovamente ai propri dati. Vice versa l’utilizzo di quelli che vengono chiamati formati aperti, permette di memorizzare le informazioni in formato digitale utilizzando dei metodi che sono di dominio pubblico e liberamente utilizzabili.
Un esempio di quanto l’utilizzo di un formato aperto sia importante lo si trova negli ebook.
Alla fine degli anni ’90 l’azienda statunitense Microsoft lanciò sul mercato un suo formato per leggere gli e-book; un formato che offriva la possibilità di avere file leggeri e una buona leggibilità su schermi piccoli. In particolare Microsoft stava entrando a gamba tesa nel mercato dei dispositivi mobili come PDA, Palmari, Pocket PC e smartphone con il suo sistema operativo Windows CE ed il formato .lit era perfetto per poter sviluppare un mercato di editoria digitale su questo tipo di dispositivi che utilizzavano questo il sistema operativo. Per circa una decina d’anni (fino al 2011)  il formato Microsoft visse una parabola: prima una crescita e poi una discesa fino a non venir più aggiornato e supportato, così che tutti i libri distribuiti in quel formato sono ora leggibili solo tramite il sistema operativo Windows che supportano l’ultima versione del programma Microsoft Reader, in quanto i moderni lettori di e-book non hanno più la compatibilità con questo formato. Al suo posto, invece, il formato .ePub, nato nel 2007 come formato aperto, è diventato lo standard preferenziale per quasi tutti i lettori di e-book (fanno eccezione i Kindle che supportano il formato proprietario .mobi),  tanto che esistono migliaia di app e programmi che possono supportare questo formato.
È quindi importante, quando si decide di memorizzare delle informazioni per essere conservate fare attenzione al formato che si vuole utilizzare: se memorizzo del testo formattato è sempre meglio optare per il formato .ODT anziché .DOC o DOCX di word, così per le pagine web è sempre meglio preferire il formato HTML al posto del . WebArchive che è leggibile solamente dal browser Safari di Apple.
Il passaggio dai dati analogici a quelli digitali (dalle cassette ai CD, dai VHS ai DVD, eccetera) è comunque un passaggio inevitabile e, malgrado quanto detto fino ad ora, la possibilità di salvare qualcosa in una sequenza di 0 e 1 offre una serie di vantaggi che non si possono ignorare.
Rispetto ad un’informazione analogica, quella digitale può essere riprodotta infinite volte anche dalle sue stesse copie, rimanendo sempre fedele all’originale (a meno che non venga deliberatamente modificata). Un manoscritto, se è copiato con un errore, quest’errore verrà ripetuto anche nelle copie successive; una cassetta, musicale o video che sia, tenderà a perdere di qualità con il tempo e quest’informazione errata sarà amplificata nelle copie successive, così come una serie di fotocopie fatta da altre fotocopie tenderà ad essere sempre più chiare e quindi differire dall’originale.
Per chi si preoccupa che anche nel copiare un dato in digitale possa generarsi un errore di trascrizione bisogna sottolineare quanto questo sia improbabile: si può trasmettere un’informazione che contiene al suo interno i dati necessari per la correzione degli errori (come ad esempio il codice Reed-Solomo del 1960) che permettono, anche nel caso una parte di dei bit che compongono il messaggio memorizzato o inviato siano rovinati, di poter ricostruire la sequenza digitale originale per quel bit in modo da avere l’informazione completa. Ogni giorno, quando guardiamo la televisione digitale (per chi come me ha anche visto i vecchi tv analogici) ci accorgiamo che l’immagine è sempre o chiara e pulita oppure assente completamente, e non più come nelle vecchie trasmissioni in analogico dove spesso i programmi erano disturbati. Questo perché un’informazione in digitale, come abbiamo detto è in grado di auto correggersi ed eliminare il “rumore”.
Da un punto di vista economico, salvare i propri dati in formato digitale offre dei grandi risparmi. Stampare una foto analogica, ad esempio, ha un costo di circa 8,50 € per un rullino da 25 pose di pellicola negativa in bianco e nero, 7,50 € per i negativi a colori (procedimento C41) e 11 € per le diapositive (procedimento E6) più 2 € per l’intelaiatura per queste ultime. Al costo della stampa va poi aggiunto il prezzo del rullino che è di circa 6,00€ per 24 pose come nel caso del Kodak Gold 200. Facendo due conti veloci il costo di una foto in analogica è di circa 0,50€.
Utilizzare invece il formato digitale permette di visualizzare la foto su molti dispositivi, dagli smartphone alle televisioni senza costi di sviluppo. Considerando il prezzo di una scheda SD di buona qualità con una capacità di 64Gb è di circa 25,00€ e che si possono memorizzare più di 9.000 foto1, mentre per stamparle il costo è di circa 0.05€ a foto. Se poi si volesse memorizzare le foto anziché su di una scheda SD su di un Hard Disk il prezzo per Mb è ancora più basso.
Per finire, salvare i dati in formato digitale non solo è  più conveniente, ma aiuta ad avere un impatto ambientale, sul breve periodo, molto basso.

I dispositivi non sono però tutti uguali e quando parliamo di Hard disk, memorie USB o schede SD bisogna sempre tenere presente che questi supporti hanno un numero massimo di scritture possibili e che Hard Disk e memorie allo stato solido come SSD, anche se possono sembrare simili, memorizzano i dati in maniera diversa: se per un tradizionale hard disk possiamo considerare una vita media di almeno 10 anni per una memoria allo stato solido come und disco SSD i dati si possono scrivere su una cella di memoria all'interno dei chip NAND Flash, un numero di volte compreso tra circa 3.000 e 100.000 nel corso del loro ciclo di vita. Questo ciclo di vita scende ulteriormente se si parla di schede SD o di chiavette USB.
Certo si può pensare di salvare tutti i dati su un supporto ottico come ad esempio un CD o un DVD ma anche in questo caso il nostro disco, anche se conservato con attenzione, non è detto che sia sicuro: negli ultimi anni si sono verificati casi di CD (spesso di fascia economica) dove lo strato protettivo di plastica si sfaldava lasciando esposta la parte interna che contiene i dati dopo solo 10 anni.
Per risolvere questi problemi nell’ultimo decennio si è iniziato ad utilizzare sempre di più il “Cloud” per salvare i dati importanti;  alcune aziende mettono, addirittura, automaticamente a disposizione un servizio di cloud dove salvare i dati e le foto presenti nei propri telefoni cellulari come Apple o Google.
Ma anche in questo caso i dati non sono propriamente al sicuro, anzi forse lo sono ancora meno di altri supporti perché il vero proprietario è chi amministra il servizio di Cloud e non l’utente che salva i dati in quel posto e se l’azienda che è proprietaria dei server, per un qualunque motivo, decidesse di interdire l’accesso ai dati o di cancellarne il contenuto, l’utente non potrebbe fare nulla. L’utilizzo di un servizio remoto per salvare i propri dati è quindi da considerare come una copia della copia e non come la soluzione principale.
A questo punto viene da chiedersi: “se siamo passati dai 2000 anni circa di durata di un papiro ai 20 scarsi di un CD conviene passare i propri dati, le proprie memorie, la propria vita in un formato digitale?”
Malgrado quello che si può pensare la risposta è Si!
Un sì dato che i vantaggi superano di molto gli svantaggi; un sì che richiede l’uso attento di poche e semplici regole per preservare le nostre memorie,  come l’utilizzo di supporti di qualità (soprattutto nel caso si utilizzino chiavette USB o CD piuttosto che DVD), avere sempre una copia della copia dei dati importanti e, ultimo ma non per questo di minor considerazione, utilizzare dei formati che siano il più aperti possibili come JPG o PNG per le foto, ODT o TXT per i testi, XML o HTML per il web, eccetera.

 


1Dati indicativi per difetto considerando foto a 16MPx e 72DPI.


BIBLIOGRAFIA:

 

      Ultima consultazione siti web maggio 2021.

 

Apple guarda al futuro ripercorrendo il suo passato

Quest’estate l’azienda di Cupertino ha annunciato che passerà dai processori Intel a processori ARM e che quindi passerà dalla tecnologia CISC a quella RISC. A novembre 2020 Apple ha poi presentato M1, il primo processore ARM di Apple per MacBook Air, MacBook Pro e Mac Mini. Ma cosa implica tutto questo?

La sigla CISC sta per “Complex Instruction Set Computer” (computer con istruzioni complesse), mentre RISC per “Reduced Instruction Set Computer” ( computer con numero di istruzioni ridotto) e rappresentano due modi diversi di affrontare uno stesso problema.
Supponiamo di voler trovare il prodotto di due numeri: uno memorizzato nella posizione 2:3 e un altro nella posizione 5:2 della memoria e di voler poi scrivere il risultato nuovamente nella posizione 2:3.
In un processore CISC vi è un’istruzione apposita (che a titolo esemplificativo chiameremo MOLTIPLICA) che permette di effettuare l’operazione; quando viene eseguita, questa istruzione carica i due valori in registri separati, moltiplica gli operandi nell'unità di esecuzione e quindi memorizza il prodotto nel registro appropriato (MOLTIPLICA 2:3, 5:2). MOLTIPLICA è quindi la nostra funzione complessa che agisce direttamente sui banchi di memoria del computer e non obbliga chi scrive il programma a chiamare esplicitamente alcuna funzione di caricamento o memorizzazione dei dati nei registri o nella memoria. Poiché la lunghezza del codice è molto breve questo ha come principale conseguenza che viene utilizzata pochissima RAM per memorizzare le istruzioni.
In un processore RISC, invece, vengono utilizzate solo semplici istruzioni che possono essere eseguite all'interno di un ciclo di clock. La stessa operazione di moltiplicazione che in un processore CISC veniva eseguita in un unico comando, viene suddivisa in quattro differenti operazioni che possono essere, ad esempio CARICO nel registro A il valore della cella di memoria 2:3, CARICO nel registro B il valore della cella di memoria 5:2, MOLTIPLICO A e B, SCRIVO il risultato in 2:3 e che vengono eseguite ognuna in un differente ciclo di Clock.
Anche se il sistema RISC sembra più macchinoso porta anche alcuni vantaggi molto importanti: queste "istruzioni ridotte" richiedono meno transistor di spazio hardware rispetto alle istruzioni complesse, lasciando più spazio per i registri di uso generale e di conseguenza hanno meno bisogno di energia e producono meno calore. Poiché tutte le istruzioni vengono eseguite in un periodo di tempo uniforme (CLOCK), è possibile il pipelining (una tecnica che consiste nel suddividere il lavoro svolto da un processore in passi, che richiedono una frazione del tempo necessario all’esecuzione dell’intera istruzione) il che rende le operazioni eseguite su processori RISC veloci quanto quelle su processori CISC.
Il fatto che poi i processori RISC utilizzino meno energia per eseguire le operazioni e scaldino di conseguenza meno li ha resi i processori ideali per i computer portatili e per i dispositivi mobili.
Ad onor del vero è da segnalare che negli ultimi anni nei processori CISC sono state introdotte alcune funzioni tipiche dei processori RISC e AMD (maggior produttore i processori RISC per computer desktop e notebook) così che nei sistemi desktop e server le differenze non sono più così marcate.
I processori CISC, che sono utilizzati principalmente sui computer e sui server, sono prodotti da una sola azienda, l’Intel, ed utilizzano un proprio set di istruzioni X86 (a 32 bit) e X86-64 (a 64 bit), mentre i processori che fanno uso di della tecnologia RISC sono utilizzati principalmente sui dispositivi mobili quali smartphone o tablet, e si basano su architettura ARM e sono prodotti da diverse aziende. ARM, è un’azienda fondata a Cambridge nel 1990 nata da una collaborazione tra Apple e Acorn Computers che non produce direttamente i suoi processori e, nella maggior parte dei casi, non li progetta, ma concede in licenza la proprietà intellettuale che serve ad altre aziende come Samsung, Qualcomm, Apple, eccetera per progettare e costruire microchip con la sua architettura.
La differenza tra RISC e CISC meriterebbe da sola una trattazione a parte e non essendo lo scopo di questo articolo possiamo fermarci qua una volta chiarite le principali differenze.
Abbiamo detto che Apple quest’estate ha annunciato che passerà a produrre computer non più con processori Intel ma con ARM che produrrà lei stessa, ma non è la prima volta che l’azienda di Cupertino fa un cambiamento così radicale: a parte i computer basati sul leggendario MOS 6502 che utilizzava un set di istruzioni proprio, i primi processori importanti utilizzati da Apple appartenevano alla famiglia del Motorola 68000, che andavano a caratterizzare la famiglia di Macintosh dal 1984 (chi si ricorda il famoso spot ispirato a Orwell?) e che erano bassati su tecnologia CISC. Nel 1994 Apple decide di utilizzare i processori IBM Power PC, che utilizzano la tecnologia RISC ed un set di istruzioni proprietarie e questa sinergia tra Apple e IBM proseguì fino al 2006 quando con l’introduzione sul mercato del iMac oltre che presentare un look nuovo ai suoi prodotti l’azienda di Cupertino inizia ad utilizzare i processori CISC di Intel.
Vista la differenza di programmazione utilizzata a livello macchina tra processori CISC e RISC il passaggio tra PowerPc e iMac non fu completamente indolore e nel sistema operativo Mac Os 10 che accompagnava le nuove macchine venne inserito un emulatore che permetteva di utilizzare i software precedenti.
Il problema del software disponibile infatti, oggi giorno, è uno dei fattori determinanti per il buon successo di un computer o di un sistema operativo come nel caso dell’azienda canadese BlackBerry o del sistema operativo per dispositivi mobili Windows Phone.
Per ovviare a questo, anche questa volta, Apple ha predisposto una sorta di macchina virtuale chiamata Rosetta2 che permetterà di far funzionare i software precedentemente sviluppati, mentre per i programmatori mette a disposizione un kit di sviluppo che consiste in un Mac mini speciale, dotato dello stesso processore A12Z degli ultimi iPad e 16GB di RAM.
Tuttavia è da sottolineare che l’utilizzo di Rosetta2 è solamente una “pezza virtuale” in quanto non permetterà mai di sfruttare al massimo le caratteristiche del nuovo processore di Apple anzi, molto probabilmente, i software che gireranno tramite Rosetta2 saranno meno performanti che non se lavorassero su di un vecchio computer. Rimane poi il problema di tutti quei software specifici che non hanno un grande mercato e che non conviene convertire.
La transizione, secondo Apple, per i suoi prodotti da processori Intel a processori ARM durerà circa due anni e nel frattempo Intel (per la quale Apple rappresenta il 10% del mercato) ha assicurato di continuare a fornire i suoi prodotti; ma questo lasso di tempo indica probabilmente il periodo che passerà tra il lancio del primo Mac con processore ARM e il pensionamento commerciale dell’ultimo Mac ancora dotato di processore Intel, mentre la sua transizione completa che si concluderà con la dichiarazione di obsolescenza dell’ultimo Mac Intel disponibile si prevede possa durare fino al 2030.
Ma cosa spinge Apple a voler fare un passaggio così radicale?
I motivi sono molti. Per prima cosa è interessante osservare che mentre i dispositivi mobili apple come Ipad o Iphone utilizzano processori ARM i suoi computer utilizzano invece processori Intel; come abbiamo visto all’inizio non vi è compatibilità tra software creati per un Iphone ad esempio e un iMac. Utilizzare un unico processore per tutti i dispositivi permetterà di creare una ecosistema virtuale dove un’utente Apple avrà la stessa applicazione sia sul telefono che sul computer con gli stessi dati e lo stesso utilizzo.
Per gli sviluppatori di software sarà possibile sviluppare un’ App che funzionerà sia su smartphone che su computer senza dover apportare alcuna modifica.
Ma le migliorie non si fermano qua, i processori ARM di Apple avranno delle customizzazioni specifiche che ne migliorano sensibilmente le performace e poter scrivere un software specifico per un sistema che integra sia l’hardware che il software a livello così profondo non è certo da trascurare.
Un altro motivo che ha portato l’azienda di Cupertino a passare a processori che lei stessa sviluppa è quella di affrancarsi da Intel e potrà così riprendere il totale controllo dei piani di sviluppo e aggiornamento dei suoi computer, mentre l’aver sviluppato un proprio processore ha permesso a Apple di integrare in un unico chip di 5nm (come nel caso del M1) 16 miliardi di transistor che comprendono: una CPU a 8 core, motore neurale (leggi I.A.) a 16 core, GPU a 8 core, controller I/O, controller Thunderbolt e USB, nonché la memoria RAM. Per finire l’utilizzo della tecnologia RISC abbiamo visto necessita meno energia e porta quindi a poter creare computer che consumano molto meno e che non necessitano di grandi dissipatori o ventole di raffreddamento.

Ma alla fine Apple ha veramente sviluppato un nuovo processore per personal computer che surclasserà tutti i precedenti?
La risposta non è facile. In realtà quello che ha fatto Apple è di sviluppare un processore che a parità di consumi è più performante e veloce di processori per PC esistenti. Se noi prendessimo, ad esempio, un processore Intel I7 di nona generazione a 8 Core e 16 Thread (processi che vengono eseguiti contemporaneamente) ma che arriva a picchi di 235 - 255 Watt e lo abbiniamo ad una buona scheda madre e video, questo non ha nulla da invidiare alle performance di un computer basato su di un unico processore M1; la vera novità sta nel fatto che Apple ha integrato le stesse caratteristiche in un unico processore di minor consumo.
Sembra di tornare un po’ agli albori dei PC, quando ogni computer aveva un suo processore specifico (o famiglia di processori) e un suo hardware specifico che si programmava e permetteva di sfruttare al massimo ogni singolo Hz del clock e bit di memoria.

Conviene quindi comprare il nuovo Mac con processore ARM?
La risposta non è anche qua facile. Certo per un amante dei prodotti Apple il lancio di un nuovo computer è come il lancio di un nuovo Iphone o Ipad e, indipendentemente dal fatto che serva o meno, lo si compra. Diverso per chi lo utilizza per lavoro. Fino a che non vi sarà un parco software appositamente scritto per queste macchine non conviene, anzi meglio tenersi il proprio vecchio computer e aspettare nel caso si voglia acquistare un Apple.
Per chi invece è appassionato di Gaming non è certo uno degli acquisti consigliati (ad oggi) visto che normalmente su Mac i giochi non sono mai stati uno dei motori di sviluppo del computer e che oggi esiste la possibilità di noleggiare in remoto un computer da Gaming.

I nuovi divulgatori.

Affianco ai vari influencer come Ferragni o Vacchi, senza arte ne parte, il mondo del web si sta aprendo sempre di più ai divulgatori online. La digitalizzazione dei contenuti ha infatti trasformato i tradizionali canali di informazione permettendo ad un sempre maggior numero di persone competenti di poter condividere le proprie conoscenze. Fino a poco meno di una quindicina d’anni fa la divulgazione di massa era appalto esclusivo della televisione e delle radio partendo da “Quark” di Piero Angela per arrivare a “La Grande Bellezza” di Cesare Bocci senza dimenticare la “La macchina del tempo” di Alessandro Cecchi Paone o i vari canali tematici come “Marco Polo” o “Rai Storia”.

Proprio come i media tradizionali hanno iniziato a perdere sempre più audience nei confronti del web anche i programmi di divulgazione devono affrontare la concorrenza dei divulgatori sul web che stanno diventando delle vere star ma che, a differenza dei più conosciuti influencer, diffondono contenuti di qualità.
Attenzione non vogliamo parlare in queste poche righe dei finti divulgatori che spacciano per vere bufale come la terra piatta, gli UFO o le cure omeopatiche, ma di persone che non solo hanno titoli accademici per parlare di determinati argomenti ma anche le capacità di farlo: la divulgazione riguarda innanzitutto ciò che chi ha una certa competenza vorrebbe far comprendere a chi non ha le sue stesse conoscenze, utilizzando un linguaggio il più semplice possibile senza togliere qualità all’informazione che si trasmette.
È poi bene chiarire fin da subito la differenza che esiste tra divulgazione  e didattica online (che non vuol dire solamente la famigerata DAD): quando si parla di didattica online ci si riferisce a dei video che hanno come target quei fruitori di contenuti che vogliono imparare o ripassare determinate conoscenze come ad esempio il “teorema di Pitagora”, come si fa il calcolo vettoriale o una lezione di storia simile a quella che viene fatta nelle aule scolastiche o universitarie. Ne segue necessariamente che un video di didattica ha un pubblico più limitato di quanto lo possa avere uno di divulgazione che si rivolge ad un pubblico più ampio e con un linguaggio meno specifico. La differenza si può quindi riassumere tra il far sapere e il come far sapere.

Il mondo dei divulgatori online utilizza principalmente due canali, Youtube e Instagram e si articola in una miriade eterogenea di contenuti; il fatto che questi due canali di comunicazione siano anche i più apprezzati dagli influencer (in particolar modo Instagram) non deve trarci in inganno ma farci riflettere che non vi sono metodi più o meno adatti per trasmettere un determinato messaggio ma solo l’utilizzo che se ne fa e che siamo noi utenti a doverne cogliere le opportunità e sfruttarli al meglio.
Ma come si riconosce un buon divulgatore online da uno improvvisato che vuole solo guadagnare visite o, peggio ancora, da uno in mala fede?
La prima cosa da tenere in considerazione –ma non la più importante-, quando si segue un video su un canale di divulgazione, è la “reputazione” di chi parla; bisogna poi considerare che fare un video divulgativo richiede non solo conoscenze ma anche tempo ed è importante che vengano citate le fonti quando si parla di un argomento, soprattutto se controverso. Infine un buon divulgatore online, parla principalmente di un solo argomento o di argomenti che sono ad esso collegato, creando eventualmente diverse playlist a seconda degli argomenti.

Tra i divulgatori italiani più attivi sia su Youtube che su Instagram sicuramente è da citare Dario Bressanini.
Chimico, fisico teorico, docente universitario, ricercatore, il professor Bressanini ha al suo attivo diversi libri di divulgazione e articoli su riviste specializzate, sempre sul tema dell’alimentazione analizzata da un punto di vista scientifico.  Ha iniziato la sua attività di divulgazione sui media tradizionali (Tv e Radio) ed ha una rubrica fissa sul mensile “Le Scienze” da parecchi anni. Ma non basta che il curriculum sia corposo e, conscio di questo, il professor Bressanini quando pubblica un video divulgativo cita sempre le fonti alle quali attinge.
Non bisogna infatti scordare che, soprattutto nella scienza, non vale il principio di autorevolezza ma di dimostrabilità.
Un altro divulgatore che mette a disposizione le sue conoscenze è Amedeo Balbi. Astrofisico e ricercatore, professore di astronomia e astrofisica all'Università di Roma "Tor Vergata", autore di diversi libri e autore di articoli scientifici pubblicati regolarmente su “Le Scienze”, “La Stampa”, “Repubblica” ed “Il Manifesto”, racconta come funziona l’universo e la scienza in maniera semplice e diretta, con un linguaggio che non risulta mai artificiosamente complesso.
 
Ma alle frontiere della divulgazione online non approdano solamente persone competenti ma anche organizzazioni come il “CICAP”, fondato da Piero Angela che dal 1989 si occupa di promuovere un'indagine scientifica e critica nei confronti delle pseudoscienze, del paranormale, dei misteri e dell'insolito, con l'obiettivo di diffondere la mentalità scientifica e lo spirito.
Anche un’organizzazione senza scopo di lucro come TED che è dedita alla diffusione di idee, attraverso un suo canale TEDx permette, a chi fosse interessato ad ampliare le proprie conoscenze, di vedere gli incontri che vengono organizzati nelle varie parti del mondo in diverse lingue (Italiano compreso!) con relatori di diverse discipline.
Nemmeno le istituzioni non si sono lasciate sfuggire l’opportunità che i nuovi media permettono e così il Canale YouTube ufficiale dei Laboratori Nazionali di Frascati (LNF) e dell'Istituto Nazionale di Fisica Nucleare (INFN) risulta uno dei più completi con playlist che vanno dalle conferenze alle letture pubbliche, con una sezione molto bella per i bambini chiamata “Summer Camp” le mie giga-nano vacanze estive, in collaborazione con Rai Kids.
Se l’INFN ha un suo canale non poteva certo essere da meno l’Istituto nazionale di astrofisica (INAF),  il principale ente di ricerca italiano per lo studio dell’universo, che sul suo canale propone un video al giorno sulle scoperte più interessanti di astronomia e fisica, sulle notizie di maggior rilievo dallo spazio e in campo tecnologico e sugli eventi rivolti agli appassionati del cielo, nonché interviste, approfondimenti e dirette con alcuni fra i maggiori esperti italiani e internazionali.

Fino ad ora abbiamo parlato solo di divulgazione scientifica online ma anche gli appassionati di materie umanistiche possono trovare approfondimenti o nuove conoscenze. Il canale del Festival della Mente, dedicato alla creatività e alla nascita delle idee che si svolge a Sarzana ogni anno, mette a disposizione i video degli incontri con i vari relatori, mentre tra i divulgatori non scientifici sono sicuramente da ricordare il canale Youtube di Roberto Trizio, che ci racconta aneddoti della vita quotidiana o eventi storici relativi al periodo della Roma Antica o il canale “Vivi everyday” che sempre di storia parla ma da un punto di vista più leggero “raccontando usi, costumi e credenze di altre epoche, il mondo quotidiano di chi ha vissuto prima di noi... tutto questo intervallato da momenti di discussione e video leggeri e comici” (Cit.).
Se si è appassionati di letteratura un canale interessante è quello di “Ima AndtheBooks”, un’insegnante di lettere, che ogni settimana crea un video.  Personalmente trovo molto interessante la playlist sulle biografie  dei grandi scrittori italiani, “con aneddoti, curiosità e segreti che i libri di scuola non ci raccontano” (Cit.).

Ma per fare divulgazione online seriamente bisogna essere obbligatoriamente laureati nell’argomento del quale vogliamo parlare?
Non necessariamente! Uno dei più grandi divulgatori di matematica e scienze, Martin Gardner, ad esempio era laureato in filosofia ma questo non gli impedì di essere, per molti anni, il curatore della rubrica "Mathematical Games" sulla rivista “Scientific American” (la versione italiana è "Giochi Matematici", su “Le Scienze”), nella quale ha divulgato molti argomenti di carattere matematico, come i frattali, la crittografia e molto altro ancora.
Un divulgatore (come insegna Dario Bressanini) quando decide di approfondire un argomento va a cercarsi tutti gli articoli e le ricerche che riesce a trovare, fino ai più recenti, li legge e li mette nel giusto contesto. Li valuta e verifica le fonti, se ci sono studi in contraddizione cerca di approfondirli per trovare quello che è più giusto, e alla fine fa un riassunto il più possibile onesto senza sensazionalismi, esponendo il pensiero generale della comunità (scientifica o di studiosi del settore) senza soffermarsi troppo su di una singola idea o concetto che magari è più simile al suo pensiero. Quando cerca di esporre quando ha appreso lo fa con parole semplici, senza entrare in tecnicismi inutili, tralasciando i dettagli e citando sempre le fonti.
Chiaramente non si può parlare di un argomento senza avere le basi solide di ciò che è il soggetto della trattazione: se si decide di fare un video sulla relatività generale sicuramente bisogna sapere almeno a livello descrittivo cos’è un tensore metrico, se si vuole parlare di storia della Seconda Guerra mondiale, avere la consapevolezza di quello che era l’Europa ed il mondo nel periodo antecedente il  settembre del 1939 e così via.

Troppo spesso si parla dell’aspetto negativo che la rapida diffusione delle notizie e dei contenuti grazie all’utilizzo dei nuovi media permette, dimenticandoci che in un mare pieno di fango si possono trovare le perle. Il periodo di confinamento forzato dovuto al covid-19 e il fatto che molti genitori si sono trovati a casa con i figli e a doverli aiutare nel fare i compiti ha permesso a molti utenti del web di scoprire il mondo dei divulgatori online che spesso sono costretti a battersi con armi impari contro i grandi influencer che non di rado fomentano fake news.
Grazie a internet informarsi è più semplice e i divulgatori (quelli seri!) sono un pezzo essenziale del processo di arricchimento personale che tutti dovremmo fare. Se leggere un saggio, per molte persone, può essere noioso non lo è guardare un video che risulta anche meno “impegnativo” e aiuta ad avvicinarsi ad una materia o ad un argomento. Se poi il video è ben fatto ed invoglia chi lo ha visto ad approfondire ciò che si è appena sentito allora lo scopo della divulgazione è raggiunto.
Viviamo in un’era che ci permette di accedere a conoscenze vere e condivise in maniera semplice e diretta è un peccato se non ne approfittiamo. La prossima volta che su youtube guardate un video clip musicale o una presentazione di qualche influencer pensate ad ampliare le vostre conoscenze e cercate un canale di divulgazione seria, arricchirete voi stessi ed anche le persone che vi circondano.

Pecunia non Olet

L’App IO per il “Cash Back” rientra nel più ampio “Piano Italia cashless” volto ad incentivare l’uso dei pagamenti elettronici. A differenza di quanto è successo per l’app Immuni, questa nuova iniziativa del Governo Italiano sembra aver avuto maggior successo e sembra anche che la maggior parte dei preconcetti riguardo la privacy, che hanno rallentato l’utilizzo dell’app di tracciabilità del Covid, non abbiano disincentivato questa volta gli utenti a scaricarla, malgrado la privacy sia meno tutelata realmente con l’uso di IO per il cashback.

Cos’è il Cashback di Stato
Cashback significa ottenere indietro i soldi in cambio degli acquisti effettuati che, in questo caso, prevede il rimborso del 10% da parte dello Stato Italiano, delle spese effettuate con sistemi di pagamento elettronici nei negozi. L’ 8 dicembre è partita la versione sperimentale di questo procedimento; nei piani del governo il cashback è una delle misure pensate per disincentivare l’uso del contante, spingere i pagamenti digitali e contrastare l’evasione fiscale.
Il procedimento di Cashback non è nuovo, diverse carte di pagamento, negozi online e app di pagamento lo hanno utilizzato e lo utilizzano tutt’ora come strumento promozionale o di fidelizzazione (e a volte è stato utilizzato anche da truffatori e siti malevoli).  Si capisce subito che questo procedimento non è propriamente un metodo di guadagno, visto che non c’è alcun ricavo sull’acquisto e non è neanche uno sconto, dato che i soldi vengono accreditati a posteriori quando la spesa è già fatta, ma possiamo considerare invece il normale cashback come una ricompensa che una carta, un negozio o un sito riconosce agli utenti che sono fidelizzati.
Il metodo di rimborso ideato dal Governo Conte è invece una misura ideata nel tentativo di arginare, come abbiamo detto, l’evasione fiscale e modificare le abitudini dei cittadini Italiani  verso metodi di pagamento tracciabili.
Quella iniziata l’ 8 dicembre è una sperimentazione e, per adesso, è valida solo se si utilizzano carte di credito, di debito o bancomat mentre sono escluse le app come Google Pay o Apple Pay che saranno attive con l’inizio ufficiale dal 1° gennaio 2021. Il rimborso sarà semestrale e di un importo massimo di 1.500 euro; per ottenerlo, però, è necessario fare almeno 50 pagamenti, che vanno da un minimo di 1 euro ad un massimo 150 euro, nei sei mesi.
Chi volesse aderire al cashback deve essere maggiorenne e residente in Italia. Deve poi registrarsi all’app IO della piattaforma della Pubblica Amministrazione, tramite l’SPID o con la carta d’identità elettronica, quindi bisogna indicare il proprio codice fiscale, uno o più sistemi di pagamento elettronico che si utilizzeranno per i pagamenti, e l’Iban del conto corrente su cui verrà accreditato il cashback ogni sei mesi.

L’app IO
L’app IO non è solamente utilizzabile per il cashback ma è un progetto del Governo Italiano, già attivato lo scorso 18 aprile, che permette ai cittadini di poter accedere in modo semplice ai servizi della Pubblica Amministrazione, sia locale che nazionale, direttamente da smartphone.
Un cittadino può tramite IO, ad esempio, ricevere messaggi e comunicazioni riguardanti le proprie scadenze verso la PA come carta d’identità, permesso ZTL, ricevere avvisi di pagamento con la possibilità di pagare tasse come il bollo auto o la TARI direttamente dall’app, mentre in futuro sarà anche possibile ottenere certificati, documenti personali digitali e molto altro.
Dall’8 dicembre, dicevamo, è possibile utilizzare IO anche per registrare i pagamenti associati al cashback di stato. Ad oggi (metà dicembre 2020) i cittadini che hanno scaricato l’app sono più di 8 milioni con un incremento significativo a partire dall’inizio del mese a pochi giorni prima dell’avvio sperimentale del Cashback di stato (un milione in più solamente tra il 7 e l’8 dicembre).
Per utilizzare l’app IO bisogna prima di tutto scaricarla dallo store del nostro dispositivo (Android o I/OS); una volta scaricata ed installata l’app ci chiede la registrazione, che  avviene tramite SPID oppure via carta d’identità elettronica. E qua iniziano i primi problemi in quanto non tutti i cittadini italiani hanno un SPID o una carta digitale e quindi bisogna munirsi di uno di questi due strumenti.  Il sito spid.gov.it mette a disposizione una lista di diversi “gestori d’identità” abilitati alla generazione dello SPID gratuitamente, ma il processo non risulta mai comodo o semplice.
Poste italiane, ad esempio, permette di avere un SPID gratuitamente recandosi presso uno degli sportelli di Poste Italiane o a pagamento se un incaricato si reca a casa. Anche altri gestori premettono il riconoscimento di persona, ma giustamente, bisogna recarsi presso i loro uffici. Ci sono anche metodi di riconoscimento da remoto, tramite webcam, carta d’identità elettronica o passaporto elettronico ma non tutti i fornitori del servizio lo mettono a disposizione gratuitamente.
Una volta registrata l’app IO, tramite SPID o CIE, l’utente deve indicare un pin ed eventualmente registrare la propria impronta digitale, dopo la prima registrazione, per accedere ogni volta basterà inserire il pin e non sarà più necessario utilizzare l’SPID.

E la privacy?
Appena uscita l’app IO ha subito manifestato dei problemi dato il grande numero di query effettuate che i server non erano in grado di gestire (tanto che nuovamente Pornhub aveva offerto l’utilizzo dei propri server), e l’ hashtag #IOapp è stato uno dei più utilizzati per visualizzare le lamentele degli utenti.
Accanto a questo hashtag però un altro compare nelle ricerche: #IOappPrivacy.
Ad onor del vero l’informativa sulla privacy andrebbe sempre letta quando scarichiamo ed installiamo un’app o un programma e a maggior ragione andrebbe letta quando riguarda dati estremamente sensibili come nel caso dell’app IO.
Ma quali dati sono interessati da questa app?
Abbiamo detto che per utilizzare il servizio cashback bisogna comunicare all’app IO il proprio codice fiscale e il proprio IBAN, mentre gli altri dati che l’app raccoglie sono gli estremi della carta, i dati identificativi del titolare della carta stessa, gli Importi degli acquisti e la loro geolocalizzazione nonché la cronologia di questi ultimi.
Certo, viene da obbiettare che la maggior parte di questi dati sono già in possesso dell’azienda che eroga i servizi, qual è quindi la differenza ?
Mentre nel caso di utilizzo di una o più carte su di un sito o presso un negozio ogni dato rimane a disposizione solamente del gestore della carta e del gestore del sito, nel caso di IO la questione è più complessa perché se registriamo e abilitiamo al cashback più carte tutti i dati delle transazioni tramite tali carte vanno a finire dentro un unico grande gestore che ha accesso a tutti i dati e può anche incrociarli.
Il fatto che l’acquisto con metodo di pagamento elettronico sia incentivato dal cashback, poi, stimola l’utente a fare più transazioni con le carte e le app e, quindi, a concedere più dati di quanti non ne concederebbe normalmente. Ai dati delle carte si aggiunge poi il codice IBAN sul quale versare il cashback, che può anche essere diverso dall’eventuale IBAN della carta di pagamento. Insomma il paradiso dei Big Data!
L’app IO è gestita dal MEF (Ministero dell’Economia e delle Finanze ) che è titolare del trattamento dei dati personali, mentre le due società controllate pubbliche PagoPA S.p.A. e Consap S.p.A. sono responsabili del trattamento dei dati personali in rispetto del GDPR. PagoPA e Consap sono autorizzate a nominare eventuali sub-responsabili, in caso, quindi alcune operazioni sui dati vengano subappaltate.
In particolare PagoPa organizza e gestisce tutto il funzionamento del meccanismo del cashback, mentre Consap gestisce gli eventuali reclami tramite una piattaforma web appositamente creata.
Quello che fa riflettere è un paragrafo della privacy policy di IO per il cashback che specifica che alcuni dati potrebbero essere inviati a dei paesi extra-UE: “Per la gestione dell’App IO, utilizzata per il servizio Cashback e gestita da PagoPA S.p.A., la predetta Società si avvale, limitatamente allo svolgimento di alcune attività, di fornitori terzi che risiedono in paesi extra-UE (USA). Per lo svolgimento di alcune attività connesse alla gestione dei reclami attraverso il Portale dedicato, Consap S.p.A. si avvale di fornitori terzi che hanno la propria sede in Paesi extra-UE (USA) “.  Stando a quanto afferma PagoPA uno dei soggetti terzi è l’azienda americana Oracle sui cui server sono ospitati i dati dei reclami (indirizzo di posta elettronica e password, codice fiscale, nome e cognome, dati dei documenti di identità allegati, dati relativi al reclamo stesso). Insomma sembra che questa clausola esista solo per permettere l’utilizzo di server di aziende extra UE che comunque sono localizzati fisicamente in Europa e la cui trasmissione dei dati avviene in maniera crittografata, quindi sicura.
Per finire va sottolineato che la privacy policy dell’app chiarisce che è vietato, oltre alla vendita dei dati, ogni utilizzo per scopi di profilazione,  il che vuol dire che non arriverà nessuna pubblicità mirata legata ai dati che raccoglie l’app IO e che ogni utente può uscire in ogni momento dal piano cashback, richiedendo la cancellazione dei propri dati.
Tutto risolto quindi? Non proprio. L’invio di dati negli Stati Uniti è ormai ritenuto non sicuro da parte dell’Unione Europea dato che il governo USA ha potere di accesso ai dati degli europei e, a quanto sembra, questo viene fatto regolarmente.
E questo non è complottismo visto che la Corte di giustizia dell'Unione europea (CGUE) si è pronunciata il 16 luglio 2020 (c.d. "Sentenza Schrems II") in merito al regime di trasferimento dei dati tra l'Unione europea e gli Stati Uniti facendo notare proprio questo e sottolineandolo nelle FAQ :” La Corte ha ritenuto che i requisiti del diritto interno degli Stati Uniti, e in particolare determinati programmi che consentono alle autorità pubbliche degli Stati Uniti di accedere ai dati personali trasferiti dall'UE agli Stati Uniti ai fini della sicurezza nazionale, comportino limitazioni alla protezione dei dati personali che non sono configurate in modo da soddisfare requisiti sostanzialmente equivalenti a quelli previsti dal diritto dell'UE”.
Non è questa la sede per giudicare le iniziative del governo a riguardo dell’utilizzo dei pagamenti elettronici per contrastare l’evasione fiscale, ne valutare se utilizzare la carta per pagare ad esempio un caffè (visto che il conteggio per il rimborso inizia da spese che partono da 1 euro) sia eticamente accettabile, ma quello che rileviamo è che nuovamente le iniziative messe in campo dal Governo per digitalizzare le attività si sono rivelate alquanto deficitarie soprattutto per le carenze delle infrastrutture di rete, assolutamente non in grado di reggere ampi e sostenuti volumi di traffico on line.
Un altro dato che è da notare riguarda la differenza di download rispetto all’app Immuni che è stata boicottata da molti utenti preoccupati per la privacy che si presumeva venisse violata, mentre per l’app IO per il cashback, questi stessi utenti non hanno avuto gli stessi dubbi, come se il desiderio di attaccarsi alle mammelle della sovvenzione statale li rendesse liberi da ogni turbamento e dubbio morale.
Svetonio ne “Le vite dei cesari” ci riferisce che l’imperatore Vespasiano rispose al figlio Tito che lo rimproverava per una tassa sugli orinatoi con la frase “non olet” (non puzza – la tassa-).
Da allora la frase viene spesso citata per indicare che non bisogna essere troppo schizzinosi riguardo la provenienza dei soldi e così, ripensando a questa frase, chiudiamo queste riflessioni pensando a tutti quei cavalieri “duri e puri” che si battevano contro Immuni per tutelare la privacy e si sono arresti miseramente a IO.



Bibbliografia:
https://io.italia.it/cashback/privacy-policy/
https://io.italia.it/dashboard/
https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/9442415
https://www.spid.gov.it/richiedi-spid

Quando l’irreale diventa reale

Ci risiamo!
Già a luglio 2020 iniziava  a girare sui social network la notizia di un “fantomatico” Jonathan Galindo che convinceva i bambini ad accettare sfide sempre più pericolose fino a portarli al suicidio. Una cosa simile l’avevamo già vista nel 2017 quando un servizio del programma TV “Le Iene” aveva parlato di una sfida nata in Russia tra i giovani che arrivava fino a spingerli al suicidio e che  prendeva il nome di Blue Whale. Dopo che i video presentati furono smascherati come falsi e per nulla attinenti al fenomeno  venne fuori che tutta la storia non esisteva e che si trattava di una creepypasta1 ma, purtroppo, la stampa aveva cavalcato l’onda e ancora oggi esistono persone che credono che il Blue Whale Challenge fosse vera, anche perché con il diffondersi della notizia iniziarono molti fenomeni di emulazione.

Il personaggio di Jonathan Galindo non è una novità di questi ultimi mesi ma nasce, anche lui, nel 2017 quando per la prima volta la versione messicana della piattaforma di notizie social (o giornalismo sociale come viene definito dai suoi creatori) Blasting News riporta la presenza in rete di svariati profili con l’immagine di un uomo con una strana maschera che ricorda vagamente il Pippo della Disney ma con un atteggiamento minaccioso ed inquietante che risponde al nome di Jonathan Galindo. Secondo quanto riportato dalla testata questo personaggio si divertiva a fare filmati porno vestito in modo stravagante sempre indossando la sua strana maschera per poi diffonderli nel web.
Chiunque conosce il sito Blasting News sa quanto poco siano affidabili le notizie diffuse, dato che gli articoli vengono scritti dagli stessi lettori e pubblicati senza nessuna verifica dei fatti, anzi, più un articolo o un autore è seguito più viene riconosciuto dalla testata.
La figura che viene associata a Galindo, in realtà, è stata creata da un video maker americano che utilizza lo pseudonimo di Sammy Catnipnik nel 2012 e che, nel suo profilo twitter, spiega le origini del personaggio: ”…Le foto e i video sono miei, del 2012-2013. Erano per il mio bizzarro piacere personale, non per qualche cacciatore di brivido dei giorni nostri che cerca di spaventare e bullizzare la gente…”. In effetti la maschera creata da Carnipnik fu utilizzata per creare alcuni video porno online ma tutto finisce qui … O almeno così si sperava.
Un influencer, sempre messicano, che risponde al nome di Carlos Name, nel giugno del 2020, racconta di una figura che ricorda il famoso Pippo della Disney (Jonathan Galindo) che si aggirava fuori dalla casa, di aver sentito strani rumori e che, in fine, l’uomo mascherato avrebbe fatto irruzione in casa sua aggredendolo. Name che conta circa 1.700.000 followers su Instagram è famoso per trattare argomenti paranormali come ufo, fantasmi e chi più ne ha più ne metta come se fossero veri, vantandosi anche di improbabili incontri con queste fantastiche figure. Dopo questo rilancio (che chiaramente è una bufala) la figura di Jonathan Galindo ha iniziato a diffondersi e iniziano a nascere profili sui social con persone che vogliono emularlo oppure semplicemente spaventare gli amici e, purtroppo, anche qualche atto di stalking o aggressione reale dove l’aggressore era mascherato da Galindo.  Dal sud America il tam tam mediatico si sposta prima in India per arrivare infine in Europa.

In Italia, a lanciare la notizia del pericolo di questa nuova sfida tra gli adolescenti è il giornale “Il Resto del Carlino” nel luglio 2020 con una serie di articoli dai titoli evocativi quali “Jonathan Galindo, la folle sfida. Un gioco all’autolesionismo” oppure ”Jonathan Galindo, il folle 'gioco'. Nuove denunce e genitori in allarme”. Negli articoli si fa riferimento ad allarmi lanciati da alcuni genitori e da alcuni ragazzi, nonché di denunce fatte da questi alle forze dell’ordine e ricordando che in Spagna gli eventi legati a Galindo sono stati molto numerosi. L’articolo finisce segnalando che “Ora purtroppo Galindo è arrivato anche in Italia “ e che non si registrano ancora fenomeni di lesionismo tra i ragazzi ma che la guardia è alta.  
La polizia postale (che si occupa di reati collegati al web), dal canto suo, il 9 luglio aveva si aperto una segnalazione di allerta sulla sua pagina web e sul suo profilo Facebook per poi ritirarla qualche giorno dopo a seguito delle indagini che non avevano rilevato fenomeni di autolesionismo tra i giovani in Italia.
Purtroppo adesso i media hanno iniziato a cavalcare l’onda Galindo e il tragico suicidio dell’undicenne a Napoli pochi giorni fa ha portato moltissime testate e telegiornali ad associare la lettera lasciata dal bambino a un possibile Jonathan Galindo, sebbene non vi siano prove di questo.

I toni sensazionalistici utilizzati dai vari media e le fake news rilanciate da siti e profili social di influencer ai quali importa solamente avere visibilità portano a travisare il vero pericolo: non bisogna avvisare i ragazzi di non accettare l’amicizia da Jonathan Galindo, ma bensì da chiunque non si conosca, proprio come una volta si insegnava a non dare confidenza agli sconosciuti e ricordando ai bambini e agli adolescenti di evitare di condividere informazioni personali online.
Continuando a rilanciare l’esistenza di un personaggio come Galindo i media rischiano di portare anche in Italia alla nascita di fenomeni di emulazione, proprio come è accaduto a suo tempo con il Blue Whale Challenge che, pur non essendo una cosa reale si è trasformata in qualcosa di pericolosamente reale,  mentre challenge che sono reali e pericolose come la “Fire Challenge”, la “Kiki Challenge” o il ”Knockout game”, che in Italia nel 2014 ha anche fatto una vittima, vengono trascurate.
Purtroppo sempre più i giornalisti stanno diventando simili a influencer che cercano la visibilità anziché la verità così, a breve, il personaggio di Jhonathan Galindo assurgerà al panteon dei mostri dell’immaginario collettivo insieme a Slenderman, SCP-173, Jeff the Killer ed altri.
Una volta i mostri li creava il cinema, così personaggi come Jason di “Venerdì 13”, Freddy Krueger di “Nightmare‎”, Pinhead di “Hellraiser” o Leatherface di “Non aprite quella porta” spaventavano intere generazioni ma rimanevano confinati nel reame dell’immaginario e dell’irreale, mentre adesso i mostri creati dal Web hanno da fastidiosa abitudine ad emergere nel mondo reale e diventare veri grazie alla massificazione che porta inevitabilmente all’emulazione.

 

1Una Creepypasta è un racconto breve e originale che nasce per terrorizzare e provocare shock nel lettore ispirati solitamente ai racconti di internet o leggende metropolitane, diffusi nei forum tramite il copy&paste (copia ed incolla).

Quando l'irreale diventa reale

IMMUNIFLOP

Forse troppo tardi il ministero della salute ha iniziato una campagna di marketing “aggressiva” per incentivare gli italiani non solo a scaricare, ma soprattutto ad utilizzare l’app Immuni.
Questa applicazione nasce in un momento nel quale l’Italia era in fase di uscita dall’emergenza Covid-19, sebbene fosse stata pensata in piena crisi, ed ha sofferto sicuramente di una campagna di marketing sbagliata e di una disinformazione che ha invece approfittato della paura delle persone sul rispetto della propria privacy per trasformare una crisi in campagna politica.

Inizialmente, quando si è parlato di creare un app per il tracciamento dei contagi, l’idea che ne ha avuto l’uomo della strata è stata quella del software sviluppato in sud Corea “Corona 100m”, che traccia tutti gli spostamenti di un individuo  e che non garantisce un livello di privacy adeguato agli standard europei.
Certo l’app Coreana ha dimostrato la sua efficacia nel prevenire la nascita di nuovi focolai, ma il prezzo da pagare è stato alto e nei paesi occidentali una simile soluzione risulta impensabile.
In Italia, da subito, le polemiche si sono focalizzate non tanto sul’utilità di una app ma su come questa avrebbe potuto garantire il rispetto della privacy degli utilizzatori  (sebbene questi stessi utenti, spesso e volentieri,  non si fanno alcuno scrupolo a pubblicare ogni sorta di dato personale sui social) e, in un mondo dove il complottismo è sempre più incalzante la promozione di un simile software e la rassicurazione, era la prima cosa da fare. Invece, fin dalla sua nascita, la comunicazione sull’app Immuni è stata sempre confusa e poco chiara partendo dalla gara di appalto per arrivare alle tecnologie utilizzate: l’azienda Bending Spoons che ha vinto l’appalto per la creazione dell’app fa infatti parte del consorzio europeo PEPP-PT.

 Il Pan-European Privacy-Preserving Proximity Tracing  è un progetto no profit che nasce con l’intenzione di assistere le varie nazioni che intendono sviluppare software per il tracciamento ed il contenimento di infezioni (non  solo il Covid-19) e fornire degli strumenti che consentono il tracciamento dei contagiati ed utilizzare dei metodi standard per l’interoperabilità dei dati, non solo all’interno dello stato che ne sviluppa il software ma, eventualmente, anche con altri stati, il tutto cercando di mantenere al massimo la privacy dell’utilizzatore. Il fatto che oltre a Bending Spoons anche altre grandi società multinazionali (come ad esempio vodafone) siano partner del consorzio e che il modello proposto sia, pur mantenendo la privacy,  centralizzato aveva dato adito a molti dubbi sull’effettiva sicurezza dei dati trattati.
Ad aprile Bending Spoons decide di abbandonare il progetto PEPP-PT per lo sviluppo dell’app Immuni a favore del modello decentralizzato proposto da Google ed Apple e questo cambiamento di rotta, contestualmente al fatto che non ci si appoggia più ad una idea no-profit  ma ad un progetto di due colossi privati della new economy ha fatto aumentare le voci  in rete sulla sicurezza dei dati trattati ed il loro anonimanto, sebbene l’idea di Google e Apple si basa su di un modello decentralizzato e più rispettoso della privacy, dove la corrispondenza tra i contatti si svolge sui telefoni dei singoli utilizzatori,  anziché su di un server centrale.
Il 15 giugno 2020, dopo un periodo di sperimentazione in diverse regioni e uno strascico di polemiche, l’app Immuni viene immessa negli app store di Google e Apple con la speranza che almeno il 60% della popolazione italiana la scarichi e la utilizzi affinché sia funzionale al suo scopo. Purtroppo a quasi tre mesi dalla sua uscita solamente uno smartphone su sette, ovvero circa il 14% della popolazione italiana, ha scaricato l’app. Dati decisamente poco incoraggianti e che rischiano di trasformare l’idea in un flop.

Ma perché così poche persone hanno deciso ti utilizzare Immuni?
Sicuramente, come abbiamo detto, la poca informazione ed alcuni errori fatti in buona fede sulla spiegazione del funzionamento dell’App sono stati tra i responsabili di questo flop.
Immuni utilizza per il tracciamento dei contatti avuti la tecnologia Bluetooth Low Energy che, a differenza del bluetooth classico, è progettato per fornire un consumo energetico notevolmente inferiore. Questa tecnologia consente alle app che lo utilizzano di comunicare con dispositivi bluetooth low energy che hanno requisiti di alimentazione più rigidi quali smartwhatch, sensori biometrici, dispositivi per il fitness, eccetera.

Attraverso il bluetooth Immuni rileva il contatto tra due telefoni se avviene a meno di un metro e per un periodo superiore a 15 minuti (le specifiche della distanza e del tempo sono state fornite allo sviluppatore dell’app dal ministero della salute). Ogni telefono che ha installato l’app genera una stringa alfanumerica anonima, una sorta di ID, che viene scambiata con gli altri telefoni se si supera la distanza ed il tempo predefinito. Nel momento in cui una persona si ammala invia il codice al server centrale che smista la lista con le stringhe dell’ identificativi contagiati a tutti i telefoni della rete. A questo punto i singoli smartphone, tramite l’app Immuni hanno il compito di calcolare, per ogni identificativo, il rischio di esposizione all'infezione sulla base di parametri come la vicinanza fisica e il tempo,  generando una lista degli utenti più a rischio.
Niente geolocalizzazione quindi (come invece accade per l’app Sud Coreana) e nessun pericolo di trasmettere dati sensibili o che permettano di risalire ad un singolo utente, dato che il server centrale non è mai a conoscenza degli incontri intercorsi tra gli utenti, ne di chi essi siano.
Per rassicurare gli utenti, inoltre, Bending Spoons ha deciso di pubblicare sulla piattaforma GitHub i codici sorgenti dell’app sia per quanto riguarda il tracciamento dei contatti che l’elaborazione, in modo da rendere tutto il più trasparente possibile.

Purtroppo, come spesso succede, i progetti che sulla carta sembrano perfetti si devono scontrare con la realtà: se è vero che l’app Immuni non utilizza il GPS del telefono per tracciare gli spostamenti dell’utente sulla piattaforma Android, dalla versione 6 (che è quella minima richiesta), per poter per accedere agli identificatori hardware dei dispositivi esterni nelle vicinanze tramite scansioni Bluetooth o scansioni Wi-Fi, le app devono disporre delle autorizzazioni ACCESS_FINE_LOCATION o ACCESS_COARSE_LOCATION e quindi attivare il sistema di posizionamento globale. 
La notizia diffusa dai giornali presso l’utente comune (gli sviluppatori software ne erano già al corrente) di questa necessità da parte del sistema Android ha portato molti utenti a dubitare sulla reale protezione della privacy da parte di Immuni.

La nuova campagna di marketing lanciata dal ministero della salute e che utilizza i classici canali televisivi e volti noti dello show business, ha lo scopo di convincere il maggior numero di italiani a scaricare e utilizzare immuni visto che, ad oggi, sebbene Immuni non sia stata scaricata da un numero sufficiente di utenti dal 13 luglio sono state inviate 809 notifiche agli utenti che hanno la utilizzano e bloccando almeno quattro potenziali focolai.
Purtroppo questo tipo di marketing potrebbe non essere sufficiente: noi italiani siamo un popolo complicato e, come con le mascherine, fino a quando non sono state rese obbligatorie,  molti si sono sempre rifiutati di utilizzarle.  Purtroppo per l’app non è così facile e obbligare gli utenti a scaricarla, anzi aumenterebbe i malcontenti in quella parte della popolazione che viene definita “complottista”.
L’approccio migliore sarebbe creare una situazione simile a quella che negli anni si è sviluppata con i social network come Instagram o Facebook: “…non li uso, ma tutti i miei amici li usano, così mi vedo costretto ad utilizzarli anch’io per non essere digitalmente escluso dal gruppo.”. Ecco che a quel punto tutti i dubbi sulla privacy andrebbero a sparire visto che la maggior parte di chi critica Immuni non ha alcuna remora a pubblicare sui social network dati anche sensibili.
Certo la privacy al 100% non è e non sarà mai garantita, se si legge la guida per sviluppatori google nella sezione bluetooth-le si legge: “Caution: When a user pairs their device with another device using BLE, the data that's communicated between the two devices is accessible to all apps on the user's device”; così accade che come per il GPS anche per i dati trasmessi tra dispositivi è vero che l’app  non va a utilizzare i dati del sensore ma altre app potrebbero e, se disabilito il bluetooth o il GPS, Immuni diventa inutile.
Bisogna quindi decidere se rinunciare ad un pizzico di privacy e paure per essere più protetti o tenersi la privacy ma avere un maggior rischio di ammalarsi.

 

Bibliografia:

https://developer.android.com/guide/topics/connectivity/bluetooth-le
https://developer.android.com/about/versions/marshmallow/android-6.0-changes.html#behavior-hardware-id
https://www.immuni.italia.it/
http://www.salute.gov.it/

L’opportunità dei Big Data

Nel 1997 esce il secondo libro della "Trilogia del Ponte" di William Gibson, Aidoru, dove è presente il personaggio di Colin Laney, un netrunner che ha la capacità di individuare i punti nodali in un insieme di dati casuali di informazioni. Apparentemente controcorrente in un momento nel quale i media davano internet per finito (nel 1997 avevano chiuso quasi 5 milioni di siti web) il libro di Gibson anticipava il futuro e, soprattutto, anticipava il concetto di Big Data e del poter estrapolare dati ordinati da un insieme di questi che appare caotico.

Cosa si intende per Big Data.
Ad oggi, ogni sessanta secondi, vengono generati più di 350.000 tweet, su facebook vengono caricate circa 243.000 immagini e 70.000 ore di video, su google sono fatte quasi 4 milioni di ricerche e 500 mila sono le app scaricate dai vari store. Tutto questo insieme di dati non va mai perso ma viene immagazzinato dai fornitori di servizi per essere analizzato e utilizzato; la combinazione del volume di dati e della velocità con la quale è generato prende il nome di Big Data.
Ma parlare di big data solo per trattare dei dati internet generati dagli utenti è limitativo, anche i navigatori satellitari generano dati che vengono inviati ad aziende private che li elaborano, i sensori delle automobili o delle case sempre più smart generano dati che vengono inviati ed analizzati dalle aziende. Abbiamo quindi, oltre che una grande quantità di dati inviati a grande velocità anche una grande varietà di essi che sono apparentemente disomogenei.
Non bisogna quindi confondere il concetto di Big Data con quello di database. Se un database tradizionale, infatti, può gestire tabelle magari composte di milioni di righe, ma al massimo su poche centinaia di colonne, quando parliamo di Big Data ci riferiamo a strumenti in grado di gestire lo stesso numero di record, ma con migliaia di colonne, dove i dati non sono strutturati in maniera omogenea come ad esempio meta dati, posizioni geografiche, valori rilevati da sensori e quasi sempre destrutturate.
Possiamo dire quindi che la definizione di Big Data è composta da tre "V": Volume di dati, Velocità con la quale sono generati e Varietà, di informazioni che apparentemente non vogliono dire nulla e che, soprattutto per la loro disomogeneità non sembrano avere correlazioni logiche nel modo di pensare classico ma la somma di queste tre V, come risultato, dà un'altra V: il Valore che è considerato l'aspetto più importante dei big data e che si riferisce al processo di individuazione di un elevato valore nascosto all'interno di un gran numero di dati (chiamato peso). Nell'analisi di questo tipo di dati è quindi fondamentale valutarne la veridicità e la qualità affinché possano effettivamente generare valore.

Quale utilizzo viene fatto dei dati?
Iniziamo subito a dire che questa grande quantità di informazioni in così poco tempo (parliamo solitamente di almeno un petabyte per arrivare a diversi yottabyte di dati) viene analizzata ed utilizzata in maniera differente a seconda dell'azienda o ente che se ne occupa. Tutti noi sappiamo l'uso che ne viene fatto nell'ambito del marketing da aziende quali Amazon o Google per il così detto "metodo della raccomandazione" per fare proposte di acquisto sulla base degli interessi di un cliente rispetto a quelli di milioni di altri: tutti i dati di un cliente, navigazione, ricerche, acquisti, eccetera, vengono analizzati e messi in relazione con quelli di milioni di altri utenti per cercare un modello di comportamento comune e suggerire un acquisto che solletichi l'interesse di chi sta navigando nel sito. Ma gli algoritmi non si limitano solo a questo: in base alle ricerche riescono a scoprire se, ad esempio, la persona che sta navigando in quel momento sia uomo o donna, se ha figli, animali domestici, nel caso, ad esempio, di una donna se è incinta e suggerirle, in questo caso, anche possibili acquisti per il futuro e/o coupon; il tutto apparentemente in maniera casuale. Anche le agenzie di carte di credito possono sfruttare le informazioni sugli acquisti che vengono fatti online per predire se un acquirente sia affidabile o meno: secondo alcune analisi, ad esempio, le persone che comprano i feltrini per i mobili rappresentano i clienti migliori per gli istituti di credito, perché più attenti e propensi a colmare i propri debiti nei tempi giusti. Quindi da un punto di vista del marketing puro l'analisi interpretativa dei dati è quella metodologia che dà valore ai big data tramite la quale le aziende possono trovare benefici come aumento delle vendite, miglior soddisfazione del cliente, maggiore efficienza, eccetera.
L'ambito di utilizzo dei Big Data, per fortuna, non si limita solamente al settore commerciale, ma può espandersi in una grandissima varietà di campi.
Un primo esempio che possiamo considerare è Ireact, il risultato di un progetto europeo triennale che ha sviluppato la prima piattaforma europea per integrare i dati di gestione delle emergenze provenienti da più fonti, tra cui quelli forniti dai cittadini attraverso i social media e il crowdsourcing1 .
Il sistema, come abbiamo detto, processa diverse fonti di informazioni come le immagini satellitari, le foto pubblicate dagli utenti sui social media, lo storico degli eventi accaduti in un determinato territorio, dati rilevati dai sensori dell'Internet of things, per poter aiutare a decidere quale strategia attuare in caso di calamità o di un evento catastrofico su un territorio e guidare in tempo reale le persone che prestano soccorso, creando nuove mappe mentre la situazione cambia, indicare quale azione operare in un determinato contesto, eccetera.
Nell'ambito della lotta alla criminalità l'utilizzo dei Big Data trova la sua attuazione nel programma Sirio al quale partecipano UNICRI, la Direzione Nazionale Antimafia ed il CERN e del quale l'Italia rappresenta uno dei principali partner per quanto riguarda l'elaborazione e la fornitura dei dati. Su Sidna, la piattaforma digitale del D.N.A., infatti, vengono memorizzati tutti i procedimenti antimafia e antiterrorismo italiani formando un database che contiene oltre due milioni di nominativi. Per fare un esempio Europol ne contiene solo 90.000 e Interpol 250.000. Ma a fare la differenza non è solo la quantità di dati presenti ma anche la qualità in quanto tutte le informazioni inserite provengono dalle direzioni distrettuali antimafia e quindi hanno un altissimo livello di attendibilità; le ultime 180 operazioni contro la criminalità organizzata nel nostro paese (dati relativi a marzo 2020) hanno avuto origine dall'analisi e l'incrocio dei Big Data. Alla base del processo che permette di trovare delle correlazioni tra i dati presenti in questo database vi sono gli strumenti di visual analytics ideati dal professor Daniel Kime dell'Università di Costanza; questi procedimenti combinano le informazioni semantiche specifiche del dominio di appartenenza con concetti astratti dei dati estratti e di visualizzarne i risultati sotto forma di reti. In questo modo possono emergere relazioni tra un mafioso ed un prestanome oppure tra un criminale ed il tipo di bene confiscato. Lo strumento che permette tutto questo si chiama Colaboration Spotting e, inizialmente, era nato per scopi scientifici mentre il suo uso, in questo campo, è quello di permettere alla Direzione Nazionale Antimafia di prevedere le future strategie criminali attraverso lo studio dei modelli organizzativi dei loro protagonisti.

Dagli algoritmi al deep learning
Nell'ambito scientifico l'utilizzo dei big data sta creando delle nuove opportunità ed anche degli scontri.
Secondo il fisico Chris Anderson la grande quantità di dati, combinata adeguatamente ad appropriate tecniche statistico-matematiche sarebbe in grado di soppiantare ogni altro strumento analitico, rendendo il metodo scientifico obsoleto. Anderson sostiene che nell'era del petabyte la correlazione possa sostituire la causalità e quindi dare la possibilità alla scienza di proseguire senza bisogno di modelli coerenti, teorie unificate o altre spiegazioni meccanicistiche: in pratica le congetture e le confutazioni saranno sostituite da "risposte" che emergeranno da sole dall'insieme di dati.
Se questo si realizzasse avremmo una nuova metodologia di ricerca che andrebbe ad aggiungersi a quelle già esistenti: il metodo sperimentale in vigore dai tempi di Galileo, il metodo matematico che ha permesso di analizzare la fisica quantistica e relativistica ed il metodo computazionale, che fa largo uso di simulazioni numeriche.
Affinché questa nuova metodologia possa svilupparsi i ricercatori fanno largo uso dell'apprendimento automatico, un metodo che utilizziamo normalmente tutti i giorni senza saperlo: gli assistenti vocali di Google, Amazon ed Apple, che hanno raggiunto livelli quasi umani di accuratezza, non fanno più uso di regole impartite da un programmatore, ma costruiscono in autonomia un modello del sistema che devono emulare attraverso l'analisi statistica di un ampio insieme di dati.
Anche se non utilizziamo gli assistenti vocali avremmo sicuramente utilizzato un chatbot che non è altro che un algoritmo capace di interloquire con una persona in modo sensato senza conoscere il significato delle parole o non capendo il significato del discorso ma solamente utilizzando milioni di conversazioni come esempi.
Gli algoritmi di deep learning, che si stanno facendo sempre più sofisticati, fanno viaggiare le informazioni verso una rete composta da milioni di nodi. Ogni nodo si accende in base a dei segnali che riceve dai vicini ed i segnali sono analizzati in base al "peso" (importanza) che hanno nella connessione dove viaggiano: una connessione con peso maggiore ha una probabilità maggiore di far cambiare lo stato del nodo dove arriva. Una volta identificati milioni di numeri viene creato un modello del problema (ad esempio in medicina permette di identificare un tumore in un insieme di pixel) e un programma è in grado di risolverlo, pur non sapendo nulla dell'ambito di sviluppo del problema (come i chatbot), il tutto tramite il deep learning e l'analisi dei Big Data.
Non tutti sono però d'accordo con queste idee. Il fisico Poincaré diceva "La scienza è fatta di dati come una casa è fatta di pietre. Ma un ammasso di dati non è scienza più di quanto un mucchio di pietre sia una casa". I dati, infatti, sono sì in grado di trasmettere contenuti ma i risultati possono essere influenzati dalla lettura che se ne dà e da come vengono correlati tra di loro. I modelli di apprendimento, ad oggi, indipendentemente dalla loro complessità, sono in grado di interpolazioni efficaci tra i dati analizzati ma l'estrapolazione di questi ultimi non supererà mai il loro livello di addestramento; secondo il matematico Edward R. Dougherty questi algoritmi non sono in grado di spiegare le correlazioni che trovano e distinguere tra falsi positivi e non, come la famosa ricerca che correlava i divorzi nel Maine ed il consumo di margarina tra il 2000 ed il 2009. Come esempio delle sue teorie Dougherty porta sempre la teoria generale della relatività, la quale non sarebbe mai potuta essere prodotta dall'estrapolazione dei Big Data solamente.

Quale presente e quale futuro?
Il nostro futuro passa anche dai big data e probabilmente i detrattori hanno in mente solamente l'utilizzo che ne viene fatto da parte delle grandi agenzie che lo utilizzano per il marketing, mentre pochi pensano che stanno nascendo delle nuove figure professionali specializzate nel settore come i Data Scientist, il Data Engineer o il Data Analyst e si prevede un mercato di 5 milioni di posti di lavoro in crescita.
Da un punto di vista puramente scientifico la possibilità di elaborare sempre più dati e sempre più velocemente creando associazioni porterà a "intelligenze artificiali" sempre più sofisticate che troveranno la loro collocazione nella vita di tutti i giorni. Pensiamo ad esempio alla difficoltà di un'auto a guida autonoma che deve decidere se un pupazzo di neve possa o meno attraversare la strada: la possibilità di comparare migliaia di informazioni che provengono dai sensori delle altre auto, compararli con migliaia di immagini presenti in rete e decidere che il pupazzo di neve non può attraversare la strada perché non è un uomo sarà possibile grazie ai Big Data.
Nel 2008 un progetto di Google permise di prevedere l'avanzamento dei focolari di influenza negli USA solamente analizzando i gruppi di termini cercati sul suo motore di ricerca più velocemente di quanto poté fare il ministero della salute analizzando i dati di immissione ospedaliera. Pensiamo a come potrebbe essere stato utile un utilizzo appropriato dei dati nell'analizzare l'evoluzione del COVID-19 nel mondo.
Certo rimane il problema di quanta privacy perdiamo ma a pensarci stiamo già rinunciando alla nostra privacy ogni volta che postiamo una foto o condividiamo un pensiero, quindi meglio perderla per avere dei vantaggi che perderla solo per avere della pubblicità in più.

 


Bibliografia:
Prisma N.17, marzo 2020, "I Big Data, contro il crimine organizzato", pp.38-41
Prisma N.3, dicembre 2018, "Big Data, come costruire modelli teorici in automatico?", pp.32-37
I-React, http://project.i-react.eu/
Youtube, 14 marzo 2018, conferenza "Elena Baralis, La nuova scienza dei dati: la sfida dei big data"
Youtube, Novembre 2014, "Analyzing and modeling complex and big data, Professor Maria Fasli, TEDxUniversityofEssex"

1 crowdsourcing è la richiesta di idee, suggerimenti, opinioni, rivolta agli utenti di Internet da un'azienda o da un privato in vista della realizzazione di un progetto o della soluzione di un problema.

 

Dal Bit a Qbit

All’inizio degli anni ’80 il premio Nobel per la fisica Richard Feynman si pone la domanda se fosse stato possibile, attraverso un computer classico, simulare la meccanica quantistica. La risposta che lo stesso Feynmann si dà è che no, attraverso un computer classico non è possibile simulare la meccanica quantistica.
Infatti, sebbene sia possibile attraverso i computer classici , elaborare calcoli di meccanica quantistica e quindi emularne il comportamento non è possibile ricreare in un computer classico un comportamento analogo a quello della meccanica quantistica.
Da qua la necessità di iniziare la ricerca per sviluppare un computer quantistico.
Certo, dire che in un computer classico non è possibile emulare il comportamento della meccanica quantistica, può lasciare spiazzati e la domanda che sorge spontanea è: ma se si può emularne il comportamento perché non è possibile anche simularlo?
Per capire questo bisogna avere delle idee basilari sulla meccanica quantistica, in particolare poche e per niente intuitive regole che sembrano uscite dal cappello di un mago.

Le regole basilari
Sebbene la Fisica quantistica sia alla base dei computer quantistici, come la fisica classica è alla base dei computer classici, non è necessario conoscerla per poter capirne il principio di funzionamento e la stessa matematica (solo quella che è alla base dei computer quantistici non della fisica quantistica) non è particolarmente impegnativa.
Diciamo subito che (per quanto contro intuitivo possa sembrare) dobbiamo considerare la possibilità che un sistema fisico nella meccanica quantistica può trovarsi contemporaneamente in tutti gli stati possibili (sovrapposizione coerente di stati). Per semplificare il concetto possiamo dire che se un elettrone può passare da due fenditure, una a destra e una a sinistra, passerà contemporaneamente per entrambe.
In realtà il concetto è molto astratto e riuscire a darne una rappresentazione mentale avulsa dalla matematica che ne sta alla base è veramente difficile.
L’altro concetto da sapere è chiamato entanglement e consiste nella possibilità che due particelle che hanno precedentemente interagito in qualche modo, se separate e messe a distanze elevate, possono ancora interagire nello stesso istante: se modifico la prima la seconda subirà la stessa modifica istantaneamente.
Com’è possibile tutto questo? Per capirlo bisogna sapere che esiste un confine tra la fisica classica e la fisica quantistica, e questo confine prende il nome di lunghezza di Planck: al di sotto di questa misura tutte le regole della fisica classica non funzionano più ma si utilizza la “funzione d’onda” che è l’incognita dell’equazione di Schrödinger e che rappresenta l’ampiezza di probabilità di trovare la particella in un preciso istante; bisogna però considerare che, sebbene l’evoluzione della funzione d’onda è determinata dall’equazione di Schrödinger, il suo risultato è deterministico.
Finiamo con un esempio per confondere ancora di più le idee: se io considero un sistema composto da un’auto che si muove lungo una strada diritta con un’accelerazione costante potrò sapere in qualunque istante dove si trova ed a quale velocità; in meccanica quantistica, se misuro una particella che si muove in una determinata direzione, non potrò sapere, contemporaneamente, la posizione ed il momento.
Se si capiscono questi concetti che possono sembrare contro intuitivi capire il principio di funzionamento di un computer quantistico diventa abbastanza semplice.

I Qbit
Alla base dei computer quantistici ci sono i Qbit, che come i classici bit possono avere valore 1 e 0.
Mentre nei computer classici il bit corrisponde alla presenza o assenza di un segnale, non è così per i qbit che possono essere rappresentati come un vettore a due dimensioni di modulo (lunghezza) pari a 1.
I Qbit hanno due valori di base |0> e |1>  (il simbolo | > è la notazione di Dirac ed indica uno stato quanto-meccanico); ogni valore può assumere lo stato di Ground:

Stato Ground Qbit


E lo stato eccitato

Stato Excited Qbit

Ma, come abbiamo visto precedentemente, può trovarsi anche in una situazione di sovrapposizione e quindi essere in entrambi gli stati, in questo caso viene rappresentato dalla funzione:

|ψ> =α|o>+β|1>

Con α e β che rappresentano la possibilità che il nostro Qbit si trovi in un determinato stato. È importante sottolineare che |ψ> non rappresenta un’ulteriore stato come 0 e 1 altrimenti non sarebbe più un sistema binario ma ternario!
Dunque |ψ> alla fine è un vettore in uno spazio che però non è facilmente disegnabile o immaginare in quanto α e β sono numeri complessi. La rappresentazione più utilizzata è quella della sfera di Bloch che ci permette anche di fare chiarezza su quanto detto fino ad ora:

Sfera Bloch

 

Nella sfera di Bloch abbiamo rappresentato il nostro vettore |ψ> in un punto qualsiasi della sfera che ha un angolo φ con l’asse X e θ con l’asse Z e, visto che la sfera ha infiniti punti, può – teoricamente-  trovarsi in infinite posizioni
Per chi ha un po’ di dimestichezza con gli operatori logici classici possiamo immaginare che se un Qbit si trova nello stato |0> e applichiamo una rotazione lungo l’asse delle X cambia stato e diventa |1> e quindi questa operazione può essere considerata al pari di un NOT nella logica binaria classica.

Not Qbit

 

 

Differenza tra computer classico e quantistico
Nei computer classici, abbiamo detto nell’introduzione, si utilizzano i bit che hanno valore 0 oppure 1. Da solo un bit vuol dire poco ed è per questo che vengono raggruppati insieme per trasformarsi in operazioni e prendono il nome di registri all’interno della CPU di un computer.
Quando, ad esempio di parla di processori a 64 bit ci si riferisce alla dimensione dei registri della CPU. All’inizio i registri erano costituiti da 8bit (che è ancora l’unità di misura del Byte). La capacità di immagazzinare ed elaborare l’informazione è 2 (il numero di stati disponibili in un bit) elevato al valore del registro. Quindi se si parla di 8bit ci si riferisce al valore di 255, se si parla di 16bit 65535, e così via. Se volessimo fare due conti vediamo che con gli attuali computer a 64 bit parliamo di un valore intorno a 18.446.744.073.709.551.615!
Tutte le operazioni che un computer può eseguire sono solo 7 che si combinano tra di loro e sono quelle della logica booleana (OR, NOT, AND, NAND, XOR, NOR, XNOR); quando un computer classico deve fare un’operazione lavora in maniera “simile” al nostro cervello: quando noi facciamo, ad esempio la somma 19+12 calcoliamo prima 9+2 (la somma delle unità) e riportiamo 1, poi ripetiamo l’operazione e sommiamo 1+1 (le decine) ed il valore riportato dall’operazione precedente utilizzando sempre le operazioni.
I computer funzionano grosso modo allo stesso modo, ripetendo l’operazione N volte in base a quanti bit sono implicati nell’operazione stessa. Quindi avrò una serie di passaggi alla fine di ognuno dei quali avrò uno stato definito dei miei registri fino a quando i bit non saranno esauriti; nel caso della somma di due o più valori, ad esempio un computer utilizzerà le operazioni OR per fare la somma e AND per il riporto.
Anche i computer quantistici utilizzano dei registri e, anche loro le operazioni che possono fare non sono moltissime ma, a differenza dei loro predecessori, grazie alla sovrapposizione di stati, dopo ogni passaggio il Qbit si troverà in tutte le possibili combinazioni contemporaneamente. I registri che contengo i Qbit, invece non saranno mai in tutte le combinazioni possibili ma solamente a 2n possibili combinazioni dove N è il numero di Qbit che compone il registro; inoltre può capitare che si voglia utilizzare un Qbit come Qbit di controllo e quindi le combinazioni saranno 2n-1 in quanto 1 Qbit mi darà sempre lo stesso risultato.
Un’altra differenza appare nel momento in cui si va a misurare il valore del registro del Qbit: non avrò più il valore 1 o il valore 0, ma grazie sempre alla sovrapposizione avrò una certa probabilità che risulti uno dei due valori, e questa probabilità è legata ai coefficienti α e β dell’equazione vista precedentemente, in particolare il |α|2  avrà una certa probabilità di avere come risultato |0> e il |β|2 di essere |1> .
Un’altra di particolarità dei Qbit è dovuta all’ entanglement: se prendo 2 Qbit che faccio “interagire” insieme creando uno stato, appunto, di entanglement, quando li separo, se il primo mi restituirà |1> quando misurato, anche il secondo (indipendentemente da quanto sia distante dal primo e dal suo stato) mi restituirà|1>, mentre se misurato separatamente mi potrà restituire, tranquillamente un altro risultato.
Le porte logiche dei computer quantistici poi si occupano di “manipolare” lo stato di sovrapposizione quantistica del Qbit e restituisce in output uno stato diverso di sovrapposizione quantistica “alterandone” le probabilità. Quando si misurerà il risultato tutte le possibilità collasseranno in uno stato di 0 o 1, ovvero il risultato con la relativa probabilità.
Ecco perché i computer quantistici processano tutte le combinazioni possibili in un unico processo e perché risultano più veloci dei computer normali. Non importa se la mia è solo una probabilità, se questa probabilità esce 10.000 volte vuol dire che può tranquillamente essere considerato il risultato esatto e chi pensa che questo sia un modo “lento” di operare perché la stessa operazione deve essere ripetuta più volte deve considerare che la velocità di elaborazione di un computer quantistico della stessa operazione è molto maggiore di quello di un computer classico per la stessa operazione ripetuta una sola volta. Le uniche volte nelle quali le operazioni non sono ripetute, ovviamente, sono nel caso che la probabilità sia del 100% ovvero il risultato sia|1>.
Fino ad ora abbiamo parlato di probabilità ma è importante avere in mente il concetto che quando si parla di probabilità nei computer quantistici ci si riferisce ad un’ampiezza di probabilità esprimibile tramite la campana gaussiana e non dobbiamo confonderci con la casualità di un risultato.

A chi serve un computer quantistico?
Per far funzionare un computer si utilizzano quelli che vengono chiamati algoritmi, ovvero una serie di istruzioni che eseguono una serie di operazioni per arrivare ad un risultato, e poco importa che si utilizzi la programmazione strutturata o ad oggetti, il concetto di algoritmo non cambia: sempre operazioni ed istruzioni serializzate sono.
Nei computer quantistici, invece abbiamo appena visto, le operazioni tendono ad essere elaborate in parallelo ed è lì che la maggior velocità di elaborazione entra in gioco.
Risulta quindi evidente che utilizzare un computer quantistico per vedere un film in full HD, navigare in internet, progettare un grattacielo o qualsiasi altro tipo di programma classico non ha molto senso, anzi potrebbe risultare più lento nell’elaborazione di un computer classico. Dove invece l’elaborazione quantistica, dà il massimo di sé, è (oltre che per i problemi di fisica quantistica) appunto nelle operazioni che devono essere parallelizzate e per le quali gli algoritmi devono essere scritti appositamente.
Gli esempi dove l’utilizzo di un computer quantistico e che più colpiscono l’immaginazione sono la fattorizzazione dei numeri primi, della decrittazione dei codici segreti come quelli che stanno alla base della RSA, e l’analisi dei Big Data.
Non stupisce quindi che tra i maggiori investitori nella ricerca sui computer quantistici, e tra i primi ad aver creato un vero computer quantistico funzionante, vi sia Google, leader nel trattamento di dati tramite i suoi servizi di ricerca nel web e di cloud.
Anche IBM ha sviluppato un suo computer quantistico e, a differenza di Big G, ha rilasciato anche parecchie specifiche, dando la possibilità a chiunque, tramite un servizio di cloud, di provare a programmare il proprio computer quantistico.

Quale futuro?
Indubbiamente il futuro è anche dei computer quantistici che però non sono un sostituto dei classici computer e non lo saranno ancora per parecchio tempo.
Questo però non esclude che negli ultimi anni l’interesse per i computer quantistici è notevolmente aumentata; Microsoft, ad esempio,  ha mostrato il suo interesse per la programmazione dei quantum computer rilasciando Q# per il frameworks .Net che permette di creare programmi per i computer quantistici, mentre il fatto che ancora non esista uno standard, lascia aperto un buco che sarà riempito da chi riuscirà ad imporsi per primo come leader (come è accaduto per il computer PC IBM a metà degli anni ’80 del secolo scorso).
Le dimensioni e le peculiarità necessarie nello sviluppo dei computer quantistici (bassissima temperatura e/o campi elettromagnetici particolarmente intensi per poter modificare gli stati degli atomi di idrogeno ad esempio) sono un altro impedimento per la massificazione di questa tecnologia come invece è successo con i computer classici che, potendo disporre di prezzi sempre più bassi e dimensioni ridotte, sono diventati uno strumento  presente in ogni casa.
Facilmente il futuro dei computer quantistici sarà simile a quello che già IBM sta testando, ovvero il Cloud.
Mentre adesso si può accedere al computer IBM tramite Cloud solamente per provare a programmare, in futuro utilizzeremo algoritmi quantistici direttamente dal nostro smartphone per accedere ai servizi che necessitano di computer quantistici per essere eseguiti e che saranno ospitati su server remoti, trasformando il nostro dispositivo in un semplice terminale intelligente.

 

NOTE ALL’ARTICOLO: alcuni concetti sono stati semplificati allo scopo di renderli comprensibili dato che potevano essere difficili da capire; allo stesso modo sono tate utilizzate parole che non sono i termini esatti ma che aiutano a comprendere l’articolo ad un numero maggiore di utenti

Cyber educazione al tempo del Covid-19

In Italia si è iniziato a discutere della possibilità di modificare gli ambienti di apprendimento e promuovere l’innovazione digitale nella scuola già nel 2007. Nel 2015 il governo Renzi promosse la riforma della scuola chiamata “La Buona Scuola” della quale il Piano Nazionale Scuola Digitale ne era un pilastro fondamentale.
All’inizio l’idea di “svecchiare” la scuola ed i metodi di insegnamento venne accolta con entusiasmo e l’introduzione di più di 35.000 LIM (Lavagna Interattiva Multimediale) nelle scuole già dal 2008 sembrò il primo passo di un percorso che avrebbe migliorato l’insegnamento.
In realtà, a distanza di più di 10 anni, la situazione non è così rosea come avrebbe dovuto essere nelle previsioni dei vari governi che si sono succeduti.
Il divario tra le varie regioni è ancora molto elevato e solamente il 70% degli istituti è connesso alla rete internet in modalità cablata o wireless ma, la maggior parte delle volte, con una connessione inadatta alla didattica digitale;solamente il 41,9% delle classi è dotata di LIM e il 6,1% di proiettore interattivo.
Per finire l’indagine sull’insegnamento e l’apprendimento OCSE TALIS 2018 in Italia segnalava che il 31% dei dirigenti scolastici riportava che la qualità dell’istruzione nella propria scuola era frenata dall’inadeguatezza della tecnologia digitale per la didattica.
In verità quello che all’apparenza è un mezzo flop della scuola digitale non è altro che il riproporsi del modo di fare tipicamente italiano dove abbiamo uno stato che stanzia fondi per dei programmi, senza però assicurarsi che vi siano le infrastrutture necessarie a supportare i cambiamenti in corso, insegnanti che non sono preparati a sufficienza o sono pieni di preconcetti e studenti che spesso sono più preparati degli insegnanti nell’uso della tecnologia e se ne approfittano.
Se la vita fosse continuata normalmente questi problemi di scuola digitale non avrebbero influenzato particolarmente lo svolgimento delle lezioni, e la scuola e gli studenti avrebbero continuato normalmente, ma nella primavera del 2020 l’arrivo del Covid-19 e la chiusura delle scuole ha portato alla luce l’inadeguatezza e l’impreparazione del sistema digitale scolastico italiano.

Il problema degli insegnanti e delle scuole
La prima impreparazione, è quella degli insegnati, che spesso ignorano gli strumenti disponibili per poter fare lezione online o/e molto più spesso hanno atteggiamenti prevenuti verso le tecnologie, come nel caso dell’Istituto comprensivo Chiodi di Roma dove il 58% degli insegnati della scuola media (in base ad un questionario a loro rivolto dalla dirigenza scolastica) non hanno voluto fare lezione online per non apparire in video. In un’intervista rilasciata al Corriere della Sera il 29 marzo 2020, la preside cerca di difendere gli insegnanti “…Sono insegnanti non giovanissimi, poco abituati alle tecnologie anche se usano il registro elettronico”, e prosegue “…C’è un po’ di diffidenza per il mezzo, temono che le loro lezioni possano venire registrate e usate dagli studenti in modo inappropriato. Forse c’è una presa di posizione, un pregiudizio, il desiderio di conservare le proprie prerogative. Su come fare lezione, il professore è sovrano.
Fortunatamente per gli studenti di quella scuola c’è sempre un 42% di insegnanti che non la vede in questo modo e si è adoperata con l’aiuto della scuola a fare lezione online. Ma quello dell’istituto Romano non è un caso isolato, e molti sono stati gli insegnanti che si sono dimostrati non in grado di utilizzare le tecnologie che la rete ha messo a disposizione per fare lezione.
A fronte di insegnanti che si sono dimostrati non in grado di affrontare una simile situazione vi sono stati anche casi di insegnanti e scuole che, anche se impreparati ad affrontare un simile scenario si sono attivati, spesso in modo autonomo, per poter garantire agli studenti un minimo di lezioni giornaliere utilizzando diversi strumenti. Alcuni hanno, ad esempio, approfittato dell’occasione per mettere online le lezioni che hanno registrato, così l’offerta di formazione su siti quali youtube è cresciuta enormemente, anche a vantaggio di chi non è più studente e vuole approfittare della quarantena per ripassare le proprie conoscenze.
Il Miur, dal canto suo, ha prontamente aperto una pagina sul suo sito dove è possibile reperire informazioni e strumenti utili per l’insegnamento a distanza che, grazie a specifici Protocolli siglati dal Ministero dell'Istruzione e dell'Università, sono disponibili a titolo completamente gratuito.
Malgrado ciò, alla fine, ogni istituto si è organizzato come meglio ha potuto, soprattutto basandosi sulle competenze tecnologiche dei docenti e alla dotazione di dispositivi per connettersi online degli studenti.
Accade così che molti insegnanti, anziché utilizzare piattaforme quali Google Suite for Education, Office 365 Education A1 o Weschoo, che offrono un alto grado di funzionalità e di sicurezza hanno optato per strumenti quali Zoom, con tutti i problemi e le limitazioni che li accompagnano (Zoom, ad esempio, non permette nella versione gratuita sessioni superiori ai 40 minuti e ha riscontrato problemi di sicurezza sui dati personali).

Le famiglie e gli studenti
Gli strumenti che permettono l’insegnamento online, sebbene siano in grado di funzionare sui dispositivi mobili quali smartphone e tablet sono principalmente studiati per poter dare il meglio tramite l’uso di personal computer. Vi sono però molti casi di famiglie dove non è presente un computer, ma lo sono, invece smartphone (alcuni dei quali costano più di un computer di medie prestazioni) e tablet, così questi studenti sono penalizzati.
Nuovamente nell’offerta di lezione online i ragazzi più penalizzati sono quelli che hanno meno accesso alla rete perché vivono in aree rurali o non raggiunte e quegli studenti che vengono da situazioni famigliari e/o economiche più disagiate. In un articolo comparso sul “Il Gazzettino” del 21 marzo Barbara Sardella, dirigente del VI ufficio scolastico di Treviso, fa notare che vi sono molte famiglie straniere e italiane che sono in difficoltà economica che non dispongono né di un pc né di un tablet ma, al massimo, di un telefono che spesso deve essere condiviso con tutti i membri della famiglia. In particolare tramite un questionario fatto tra le famiglie è risultato che in 2 scuole primarie su 3 più del 50% delle famiglie non ha pc e non ha tablet.
Le situazioni sono migliori nei licei o negli istituti tecnici, dove studenti e famiglie hanno almeno un computer in casa.
Se pensiamo che i dati sopra riportati riguardano una provincia di una delle regioni considerate “ricche” in Italia è facile immaginare quale può essere l’impatto sull’istruzione degli studenti in realtà regionali meno fortunate.

Verso una scuola esclusiva e non inclusiva?
L’ articolo 34 della Costituzione Italiana recita: “La scuola è aperta a tutti. L'istruzione inferiore, impartita per almeno otto anni, è obbligatoria e gratuita. I capaci e meritevoli, anche se privi di mezzi, hanno diritto di raggiungere i gradi più alti degli studi”.
Purtroppo al tempo del Covid-19 l’accesso all’istruzione è diventato sempre più elitario ed esclusivo.
La prima causa è, abbiamo visto, l’incapacità (o la voglia) di alcuni insegnanti di adattarsi alle nuove tecnologie, ma il problema più grande riguarda l’impossibilità di chi non ha le disponibilità economiche per poter utilizzare gli strumenti messi a disposizione, ed è un problema che non è da considerarsi confinato solamente nel periodo della quarantena ma, con il passare del tempo, rappresenterà sempre di più una barriera tra l’istruzione di sere A e quella di serie B.
Quello che ha mostrato il Covid-19 riguardo la scuola digitale è che, se non verranno presi provvedimenti per garantire l’accesso agli strumenti per tutti gli studenti, avremo una scuola sempre meno inclusiva e più esclusiva e discriminatoria.
Non c’è dubbio che usciremo da quest’esperienza cambiati come società ma è ora che le istituzioni riflettano sulle scelte che stanno facendo e che iniziano a considerare la realtà: è bello creare una scuola informatizzata e digitale, che fa uso di strumenti moderni per l’insegnamento, ma bisogna GARANTIRE a tutti l’accesso a questi strumenti, mentre negli ultimi anni abbiamo assistito ad un continuo taglio delle risorse che lo stato destinava alla scuola.


Bibliografia:
https://www.miur.gov.it/scuola-digitale
https://miur.gov.it/web/guest/-/scuola-pubblicati-i-risultati-dell-indagine-sull-insegnamento-e-l-apprendimento-ocse-talis-2018
https://www.istruzione.it/scuola_digitale/allegati/Materiali/pnsd-layout-30.10-WEB.pdf

La rete internet italiana sotto stress

Quando pensiamo ad internet siamo portati a pensare a qualcosa di quasi astratto e, se non fosse per le bollette che paghiamo mensilmente, difficilmente ci ricorderemmo che si tratta di una rete comunque fisica, fatta di cavi, ponti radio e tutta una serie di infrastrutture; tutto il traffico generato dai diversi provider e che passa lungo le infrastrutture proprietarie, per poter comunicare tra di loro, si incontrano in nodi che vengono chiamati IXP (Internet Exchange Point). In Italia abbiamo circa 12 Internet Exchange Point, il principale dei quali è il MIX (Milan Internet eXchange) nato nel 2000 con soci 19 tra i principali operatori internet italiani.
Pochi giorni dopo l’entrata in vigore del decreto del 8 marzo 2020 riguardante le misure straordinarie ed urgenti per contrastare l'emergenza epidemiologica da COVID-19 e che, in pratica, faceva stare gli italiani a casa il MIX ha segnalato un aumento costante del traffico internet del 25% fino ad arrivare ai mille miliardi di bit al secondo.
Si potrebbe pensare che questo traffico fuori dalla norma sia dovuto all’aumento delle persone che lavorano da casa, il famoso smart working, tanto richiesto dal governo in questi giorni per chi ne ha le possibilità, o dall’aumento delle lezioni online di scuole e università, ma la realtà è diversa: la maggior parte del traffico è generato da video on demand e giochi online.
Nelle ore lavorative, infatti, l’aumento del traffico è stato solamente del 5-10% rispetto al normale traffico generato a dimostrazione che lo smart working non è un problema per la banda utilizzata, tanto più che gli strumenti che ne fanno uso hanno una codifica dei dati molto elevata e fanno poco uso di banda.
Se ancora vi fossero dei dubbi basta pensare che la piattaforma di gaming online Steam, con oltre 20 milioni di giocatori attivi contemporaneamente, ha superato ogni record, mentre un videogioco “vecchio” di ben 8 anni come Counter-Strike: Global Offensive ha superato il milione giocatori connessi contemporaneamente per la prima volta; mentre l’amministratore delegato di Telecom Italia, Luigi Gubitosi, ha parlato di un aumento di oltre il 70% del traffico generato dai videogiochi tra i quali Fortnite.

È chiaro che la rete internet italiana sia sotto stress, ma è altrettanto vero che fino ad ora ha retto bene alla prova e che probabilmente sarà in grado di reggere al traffico che si genererà in questi giorni, anche se vi saranno dei rallentamenti, ma questo non toglie che nel nostro paese è ancora grande il divario digitale tra tante zone del paese dove non esiste una copertura adeguata e che esclude molte persone dalla possibilità di usufruire dello smart working o di seguire lezioni online: secondo gli ultimi dati dell'Agcom, infatti, il 5% delle famiglie italiane non sono raggiunte dalla banda larga di rete fissa.
Quando l’emergenza Covid-19 sarà passata è auspicabile che molte famiglie valuteranno diversamente l’utilizzo della rete a casa, mentre molte aziende valuteranno come sia possibile affrontare alcune tipologie di lavoro in maniera differente.

5G il primo cambiamento dopo il GSM

Sebbene il termine 5G stia ad indicare la quinta generazione di sistemi di telefonia mobile non si tratta di un semplice evoluzione del 4G come i vari passaggi da 2G (il famoso GSM) a 3G, 4G per finire con il 4,5G  ma di qualcosa di diverso, come il passaggio tra Etacs che era ancora analogico, al GSM digitale
A metà dell’800 Maxwell elaborò le prime formule matematiche sull’elettromagnetismo che ampliavano e completavano gli studi di Faraday; Le ricerche di Maxell aprirono la porta a tutta una serie di studi di altri scienziati tra i quali vi era il tedesco Heinrich Hertz che nel 1886 costruì un apparecchio in grado di generare onde relativamente lunghe ed un altro che poteva riceverle.
Hertz si dimostrò scettico sull’utilità pratica del suo strumento dichiarando ” È priva di qualunque uso pratico (…) è soltanto un esperimento che prova come il maestro Maxwell avesse ragione…” e a chi insisteva interrogandolo sul suo punto di vista su ciò che poteva accadere come conseguenza della sua scoperta ribadiva :”Nulla presumo”. Per fortuna non tutti la pensavano così e l’esperimento di Hertz portò alla creazione della radio.
Le onde radio sono una radiazione elettromagnetiche e, queste ultime, sono presenti praticamente ovunque in natura: la stessa luce visibile è una forma di radiazione elettromagnetica, come le microonde, i raggi X e le onde radio.

Ma cosa sono le radiazioni elettromagnetiche?
La radiazione elettromagnetica può essere trattata secondo due punti di vista: secondo la teoria ondulatoria e secondo la teoria corpuscolare o quantica. Quella che interessa a noi, in questo momento è la teoria ondulatoria secondo la quale la radiazione elettromagnetica si comporta come un’onda che viaggia alla velocità della luce (c) e può essere descritta in termini della sua lunghezza d’onda λ e della sua frequenza di oscillazione ν dove la lunghezza d’onda è la distanza tra i massimi successivi di un onda, mentre la frequenza (ν) è il numero di cicli completi di un onda che passano per un punto in un secondo e l’unità di misura è chiamata Hertz.
Questi due parametri sono legati dall’equazione: λ = c/ν e da qua ricaviamo che la lunghezza d’onda è inversamente proporzionale alla frequenza ovvero aumenta con il diminuire della frequenza.
Per fare un esempio pratico la luce visibile dall’occhio umano è compresa tra una frequenza che varia dai 400 e 700 nanometri.

Onda elettromagnetica

Le onde radio hanno una lunghezza che varia dai 10cm ai 10Km, all’interno di questa lunghezza le frequenze che vengono utilizzate per la radiocomunicazione (Tv, Radio, Telefonia mobile, ecc.) va dai 3 kHz e 300 GHz. Fino ad ora, per la telefonia mobile, si sono utilizzate le frequenze che vanno dai 900 Mhz dei 2G (GSM) ai 2600 Mhz dei 4G (LTE) e tutti i telefoni cellulari 4G di ultima generazione sono in grado di passare da una frequenza all’altra a seconda della copertura. Questo tipo di frequenze hanno delle lunghezze d’onda che non vengono assorbite facilmente nel loro cammino da ostacoli di medie dimensioni, come le case o gli alberi e possono essere trasmesse a distanza perché (come dimostrato da Marconi) vengono riflesse dagli strati ionizzati dell'atmosfera. Sebbene tecnicamente il 4G LTE sarebbe in grado di velocità fino a 300 Mbps, in realtà siamo nell’ordine di 5-12 Mbps in download e 2-5 Mbps in upload, con picchi che scendono tra i 5 e gli 8 Mbps (alcuni test di operatori di telefonia italiani nel 2014 sono arrivati oltre i 30Mbps ma erano solo test in condizioni ottimali).

Come potrà allora il 5G riuscire a superare le velocità attuali?
Immaginiamo le frequenze come un triangolo equilatero con la punta verso il basso, le telecomunicazioni utilizzano le frequenze che si trovano vicino alla punta mentre in alto (nella parte larga) sopra i 24Ghz non vi è praticamente traffico; questo è dovuto al fatto che le onde a quella frequenza hanno lunghezza molto corta e quindi non riescono a superare facilmente gli ostacoli.
La tecnologia 5G utilizzerà tre spettri di frequenza: dai 694-790 Mhz, 3,6 e 3,8 GHz per finire con 26,5 e 27,5 GHz.
Nel primo range di frequenza fanno parte anche le trasmissioni di alcuni canali della televisione digitale ed è uno dei motivi (ve ne sono anche altri come il tipo di compressione del segnale), che si dovranno cambiare i decoder dei televisori non predisposti; questo tipo di frequenza è necessario dato che riesce a passare attraverso gli ostacoli normali (alberi, case, ecc.) pur potendo trasmettere parecchie informazioni. Il secondo gruppo di frequenze offre una buona velocità di connessione ma è più soggetta ad essere bloccata dagli ostacoli. Questo lo possiamo verificare anche nelle nostre case: i router casalinghi utilizzano le frequenze 2,4 e 5Ghz, se utilizzo i 5Ghz avrò una “maggiore” velocità nella comunicazione con il router dato che maggiore la frequenza, maggiore è la velocità con cui trasmette i dati, ma il segnale è “più debole”. L’ultimo gruppo di frequenze hanno una lunghezza d’onda più corta delle precedenti e quindi una frequenza maggiore il che si traduce nella possibilità di trasmettere molto velocemente i dati ma che gli ostacoli sul cammino possono bloccare o diminuire di molto il segnale.
La prima conseguenza dell’utilizzo di queste frequenze è quello che per un utilizzo ottimale del 5G sarà necessario aumentare la copertura delle celle presenti sul territorio e che non sempre sarà possibile utilizzare il 5G al massimo delle sue potenzialità. I più penalizzati saranno, quasi sicuramente, gli utenti che vivono nelle zone rurali nelle quali è più difficile posizionare una grande quantità di ripetitori rispetto che nelle città e, se sono presenti anche alberi, difficilmente sarà possibile avere la copertura sopra i 26 Ghz se si è troppo lontani dai ripetitori dato che l’acqua presente nel tronco e nelle foglie tende ad assorbire le onde più facilmente. È probabilmente la banda che verrà utilizzata maggiormente dagli smartphone nel primo periodo di diffusione del 5G sarà quella compresa tra i 3,6 ed i 3,8 Ghz che offrirà comunque una velocità maggiore del 4,5G.

Il fatto che il 5G utilizzi una frequenza così altra ha destato molte preoccupazioni e leggende metropolitane tra gli internauti tanto da creare veri e propri comitati contro l’utilizzo di questa tecnologia. In realtà non succederà, come sostengono molti, che vi sarà un abbattimento indiscriminato di alberi per dare la possibilità al segnale di arrivare facilmente, ma più probabilmente in futuro nascerà una nuova forma di digital divide tra le zone più o meno servite a causa delle pesanti norme esistenti.
Un'altra delle paure infondate che sono nate è che l’utilizzo delle frequenze così alte possano essere dannose per l’uomo e che le onde del 5G possa cuocerci come i forni a microonde.
In realtà è già da parecchi anni che si parla di eventuali danni che i campi elettromagnetici (in particolare l’uso del cellulare) possono generare nell’uomo ma, malgrado quello che dicono i giudici con una recente sentenza della cassazione, non vi sono prove scientifiche di questo e nessuno scienziato ha potuto portare una dimostrazione che questo sia vero.
È vero che i campi elettromagnetici generano calore (come nei forni a microonde) ma questo tipo di onde hanno lunghezze d'onda che vanno da 1 mm a 30 cm, uno spettro che è sotto quello delle radiazioni infrarosse. Tra le organizzazioni internazionali deputate al monitoraggio della salute delle persone solamente l'Agenzia Internazionale per la Ricerca sul Cancro (IARC) ha classificato i campi elettromagnetici a radiofrequenza (CRF) come cancerogeni di gruppo 2B (nella stessa classifica risultano, ad esempio l’estratto di foglie di Aloe e l’estratto di kava), e considera limitato il grado di correlazione tra l'utilizzo intensivo di telefoni cellulari e lo sviluppo di tumori cerebrali, mentre lo considera non dimostrato scientificamente per tutti gli altri tipi di cancro. Bisogna in fine considerare che la tecnologia 5G si basa su antenne adattative che sono caratterizzate non più da una emissione costante di potenza in tutte le direzioni, ma da una emissione “adattativa” in base al numero di utenze da servire, dalla loro posizione e dal tipo di servizio.
Del 5G si è detto e si dirà molto, ma certamente rappresenta un passo avanti nelle telecomunicazioni soprattutto per l’internet delle cose, ma la preoccupazione vera è che questa nuova tecnologia a causa delle sue limitazioni andrà ad aumentare il gap tecnologico che esiste anziché diminuirlo.
Il Consiglio Europeo, dal canto suo, è convinto che la nuova tecnologia favorirà l'innovazione dei modelli commerciali e dei servizi pubblici ma che in paesi come l’Italia,  con norme molto restrittive sulla radioprotezione, c’è il rischio di rallentare lo sviluppo delle nuove reti ed invita i paesi membri ad adottare le linee guida dell’ICNIRP (International Commission on Non Ionizing Radiation Protection) che rappresentano il massimo riferimento scientifico del settore.

 

BIBLIOGRAFIA
Rif.: Ian Stewart, “Le 17 equazioni che hanno cambiato il modno”, Frontiere, edizione 2019, pp.267-287
Rif.: IARC,
https://monographs.iarc.fr/agents-classified-by-the-iarc/
Rif.: O.M.S. : https://www.who.int/en/news-room/fact-sheets/detail/electromagnetic-fields-and-public-health-mobile-phones
Rif.: Camera dei Deputati Servizio Studi: https://www.camera.it/temiap/documentazione/temi/pdf/1105154.pdf
Rif: Arpa Emilia-Romagna: https://www.arpae.it/dettaglio_generale.asp?id=4149&idlivello=2145

Y2K ovvero come ci salvammo dalla regressione digitale

Il secondo decennio del 21 secolo è appena iniziato e pochi si ricordano che solamente vent’anni fa abbiamo rischiato una piccola regressione digitale.
Questa riflessione nasce da un post che sta girando da qualche giorno sui maggiori social network e programmi di IM che avverte che “Quando scriviamo una data nei documenti, durante quest’anno è necessario scrivere l’intero anno 2020 in questo modo: 31/01/2020 e non 31/01/20 solo perché è possibile per qualcuno modificarlo in 31/01/2000 o 31/01/2019 o qualsiasi altro anno a convenienza. Questo problema si verifica solo quest’anno. Stare molto attenti! Non scrivere o accettare documenti con solo 20. Fate girare questa utile informazione”.
A prescindere dal fatto che in tutti i documenti legali è buona norma (quando non obbligatorio) usare la data in formato esteso, tutti i documenti che prevedono una registrazione prevedono anche una datazione estesa al decennio, fin dai tempi del Millennium Bug.

Ma cosa è stato questo Millennium Bug che tanto ha spaventato alla fine del 1999 il mondo informatico e che è passato senza troppi problemi tanto che oggi c’è chi (i complottisti esistono sempre!) crede che non sia mai stato un reale problema ma un’invenzione atta a far spendere solti alle aziende, agli stati ed ai singoli utenti?
Spieghiamo subito che il termine Bug, in informatica, identifica un errore di programmazione e nel caso del Y2K (come veniva chiamato il Millenium Bug) non si trattava di un errore di programmazione ma di una scelta dettata dalle necessità: all’inizio dell’era informatica e dei personal computer la memoria rappresentava una risorsa così, quando si scrivevano le date, per gli anni si pensò di utilizzare solamente le ultime due cifre che componevano l’anno e non tutte e quattro così 1972 si scriveva 72.
Ma cosa sarebbe successo al cambio di data dalla mezzanotte dal 31 dicembre 1999 al 1º gennaio 2000 nei sistemi di elaborazione dati? Il cambio di millennio avrebbe portato a considerare le date 2000 come 1900 e i problemi che si presentavano erano parecchi, dal valore degli interessi maturati alle date dei biglietti aerei, dal noleggio di automobili ai dati anagrafici dei comuni, dai possibili blocchi delle centrali elettriche alla paura di disastri nucleari.
Per rendere un’idea del panico che venne propagato basta pensare che negli stati uniti vi fu un aumento dell’acquisto di armi e che la stessa unione europea istituì una commissione per l’analisi dei rischi dell Y2K (
https://.cordis.europa.eu/article/id/13568-commissions-analysis-of-the-y2k-problem).

Oggi sappiamo che il problema del Millenium Bug era noto da tempo ad ingegneri e programmatori, molto prima che diventasse un problema mediatico, e che si iniziò a lavorare per evitarne le catastrofiche conseguenze.
La Microsoft con i suoi sistemi operativi Windows95 e Windows98 era preparata e le patch (una porzione di software progettata appositamente per aggiornare o migliorare un determinato programma) che vennero distribuite furono pochissime, non lo stesso per il vecchio window 3.11 che stava in quel periodo terminando la sua vita operativa e che dovette subire parecchi aggiornamenti; i Bios dei computer vennero aggiornati (quando non lo erano già), mentre per i sistemi Linux non si presentarono problemi.
Dire che però tutto filò liscio come l’olio non è esatto, alcuni problemi vi furono e se non diventarono tragedie fu solo perché l’allerta data permise di avere del personale preparato allo scattare della mezzanotte.
Infatti se alcuni problemi come accadde nello United States Naval Observatory che gestisce l’ora ufficiale del paese e sul Web segnò come data il 1 gennaio 1900, o del cliente di un negozio di noleggio video dello stato di New York si trovò sul conto $ 91.250, possono essere considerati fastidiosi in altri casi si rischiò la catastrofe: la centrale nucleare di Onagawa ebbe qualche problema di raffreddamento che scatenò l'allarme 2 minuti dopo mezzanotte, egli Stati Uniti, il sistema di elaborazione dei messaggi della Guardia costiera venne interrotto, alle Hawaii vi furono interruzioni di corrente.
Più tragico fu quanto accadde a Sheffield, nel Regno Unito, dove ci furono valutazioni errate del rischio per la sindrome di Down inviate a 154 donne gravide e vennero effettuati due aborti come risultato diretto del Y2K (dovuto ad un errore di calcolo dell'età della madre), mentre quattro bambini affetti da sindrome di Down sono nati da madri a cui era stato detto che si trovavano nel gruppo a basso rischio ovvero che le possibilità che succeda una cosa del genere era pari a zero.

A vent’anni di distanza possiamo dire che se il Millenium Bug non ha causato danni catastrofici non fu perché il problema non esisteva o era una bufala, ma perché, seguendo il principio di precauzione, sotto spinta del governo americano che aveva riconosciuto che un singolo governo non sarebbe riuscito a intervenire in prima persona ovunque fosse stato necessario e che il rischio potenziale era troppo elevato per poterlo ignorare, aveva coinvolto tutta la società e altri stati tramite un sistema di cooperazione: era impossibile stabilire a priori quali e quanti danni potevano essere arrecati quindi le istituzioni, mentre si preparavano per ogni evenienza, dovevano informare il pubblico sui rischi, e mettere pressione alle aziende affinché iniziassero una politica per evitare i danni del Y2K.
Anche se non tutti i governi investirono nello stesso modo (l’Italia fu il fanalino di coda nell’Eurozona) la comunicazione e l’allarme di massa aveva funzionate e man mano che si procedeva l’aggiornamento dei software e dei Bios, il rischio si riduceva.
Oggi lo stesso tipo di allarme che vent’anni fa venne dato per il Millenium Bug viene dato per il riscaldamento globale ed il cambiamento climatico: dopo che i tecnici del settore (scienziati, fisici, climatologi, ecc.) hanno per devenni avvertito dei rischi intrinsechi derivati dal climate change anche nell’opinione pubblica si sta sviluppando la preoccupazione per un simile futuro.
Ma mentre per l’Y2K le preoccupazioni erano più tangibili ed economicamente capibili quali il pagamento degli interessi sulle azioni, la sicurezza dei sistemi di difesa statali, la sicurezza dei voli o il corretto funzionamento delle centrali nucleari, per il cambiamento climatico i problemi sono più astratti o a più lunga scadenza e lontani dalla reale percezione.
Se si considerasse il problema del cambiamento climatico come fu considerato alla fine del XX secolo il Millenium Bug sarebbe forse più semplice affrontare risolvere il problema.

Un 2019 Social

Il 2019 è ormai quasi finito ed il 2020 è alle porte, così è interessante tirare le somme di quest’anno online con tutti i suoi pregi e difetti.
Se, infatti, il Global Digital Report ci mostra una crescita di un 10% degli utenti internet online rispetto all’anno precedente (circa 400 milioni di utenti in più), soprattutto dai paesi emergenti e dall’Africa, la maggior parte di essi appaiono utenti principalmente social.
“We are Social” verrebbe quindi da dire ma attenzione perchè ci sono delle novità: Facebook ha visto solo una crescita di circa 8 milioni di nuovi utenti tra luglio e settembre 2019, mentre è in netta crescita l’uso di programmi di instant messaging (che vengono ormai equiparati a social network), dovuti all’uso di dispositivi mobili come principale mezzo per accedere al web. I dati mostrano una crescita del 51% di utilizzatori di smartphone, contro solamente un 44% di utenti che utilizzano il computer, mentre l’uso di tablet è sceso al 3,6% (un calo del 13%).
Malgrado il calo di visitatori Facebook rimane ancora il 3° sito web più visitato al mondo, subito dopo Google e Youtube, pur rimanendo la query di ricerca più richiesta sul motore di ricerca Google e mantiene ancora il primato come social network con il maggior numero di utenti attivi, seguito da Youtube e Watsapp.
Pur essendo leggermente superiore il numero di utenti di sesso maschile che utilizzano il social network di Zuckerberg le donne sembrano più attive avendo un maggior numero di commenti postati, link condivisi e Like assegnati ai post.
Rimanendo sempre in area solamente social network (non considerando i programmi di Istant messaging come tali) il secondo per utenti attivi risulta essere Instagram, sempre di proprietà di Zuckerberg, i cui utilizzatori hanno, per la maggior parte, meno di 30 anni, mentre Twitter mostra un lento ma continuo aumento di utilizzatori dovuto probabilmente al differente tipo di utilizzo e alla censura meno severa, così come Linkedin.
Abbiamo detto che vogliamo considerare i programmi di messaggistica istantanea separatamente dai social network e qua vediamo che a farla da padrone è sempre Facebook che con il suo Messenger ed il suo whatsapp ha il 90% del mercato, mentre i suoi “concorrenti” come Telegram o Viber sono quasi inesistenti o con un target geograficamente limitato, mentre resiste Wechat che in Cina è praticamente il padrone assoluto. Da segnalare che negli ultimi mesi dell’anno TikTok ha avuto un impenno diventando la terza app più scaricata (Whatsapp è solamente la 4°) e che, se confermato il trend, sarà un valido rivale per il 2020 ai programmi di Zuckemberg.

Interessante è anche il modo che hanno gli utenti di utilizzare il web; come abbiamo detto all’inizio di questo articolo la maggior parte degli utenti utilizza i dispositivi mobili e questa metodologia permette di utilizzare i comandi vocali più agevolmente che non su di un PC, così il 50% degli utilizzatori che hanno tra i 16 ed i 34 anni preferiscono usare il riconoscimento vocale per interagire con il web, mentre questa metodologia di utilizzo tende a scendere con l’aumentare dell’età attestandosi ad un 21% per utenti che vanno dai 55 ai 64 anni.
Per quanto riguarda i tempi di utilizzo del web sembra che (a livello mondiale) si passi in media 6 ore al giorno connessi tra App, Navigazione, Messaggistica e mail; per fortuna non tutto il tempo è passato sui social media (come alcuni servizi sui media tradizionali possono portare a pensare) e si va dai soli 36 minuti al giorno per gli utenti di internet in Giappone ad un massimo di 4 ore medie per gli utenti Filippini.
Infatti i dati di GlobalWebIndex mostrano che il 98% degli utenti internet che ha visitato un social network nell’ultimo mese solo l’83% è risultato un utente attivo e non solo fruitore passivo e che molti di loro utilizzano il social network anche per lavoro.

Fino ad ora abbiamo trattato di dati a livello globale, ma come ce la passiamo noi Italiani?
Per prima cosa diciamo che il 92% (54 milioni) degli abitanti del bel paese è connesso ad internet il che fa di noi uno dei paesi europei più digitalmente connessi. Quasi il 60% dei 54 milioni di utenti online è attivo sui social network e poco più della metà di questi accede ai social via dispositivo mobile (Smatphone).
Il tempo che noi passiamo online è anche quello sopra la media che infatti per noi Italiani arrivia a sei ore medie giornaliere mentre tra le query di riceca più utilizzate ci sono le parole Meteo, Facebook, Youtube, Google e Traduttore.
Il campione considerato va dai 16 ai 64 anni, e ci mostra un utilizzo online principalmente per la visione di video (92%), mentre l’utilizzo dei comandi vocali da noi si attesta ad un semplice 30%.
Dal report risulta poi i cittadini del bel paese amano chiacchierare, tanto che risulta l’uso principale del web per i programmi di messaggistica con whatsapp (84% di utilizzatori) che la fa da padrone, seguito da Facebook messenger (54%), mentre Youtube, con il suo 87% di utilizzatori, risulta il social network più seguito incalzato da Facebook (81%) e, a distanza, da Instagram con solo un 55%.
Ma cosa guardano gli Italiani su Youtube? Principalmente musica: tra le ricerche, infatti, la classifica vede in pole position le canzoni, seguite dai film e quindi dal gioco Fortnite.
Solamente 11% degli utilizzatori dei social, poi, dichiarano di utilizzarli anche per lavoro a dimostrazione che in Italia vengono utilizzati come canale panacea di svago.
Su di un piano puramente “sessista” vediamo che, mentre tra facebook e instagram la differenza di utenti di un sesso anzichè l’altro non è molto differente (su Facebook gli uomini superano leggermente le donne e su instagram l’inverso) su Twitter sono gli uomini a farla da padroni con un 68% di utilizzatori.

Nell’era del web 2.0 e della digital revolution sapere come ci comportiamo online, quali App si scaricano o Quali siti si visitano, nonché il metodo di utilizzo della tecnologia, rappresenta uno specchio della società né più né meno delle statistiche ISTAT che ogni anno ci vengono presentate come specchio della società. Queste analisi dei comportamenti dove la differenza tra vita reale e vita virtuale non rappresenta più due elementi separati ma un unico elemento della vita delle persone è una rappresentazione che riguarda tutti noi e non sono più solo uno strumento di statistica per creare marketing online utilizzato dagli operatori del settore.
Un’ultima cosa che appare (e che dovrebbe preoccuparci!) dal report sull’utilizzo del web nel 2019 è la centralizzazione che Facebook sta operando nel settore della messaggistica istantanea e che è quasi a livello di monopolio.

 

Riferimenti: https://datareportal.com/reports/digital-2019-q4-global-digital-statshot

L’Illusione della navigazione anonima

A luglio 2019 Microsoft ha pubblicato un report che elenca le principali aziende che si occupano del tracking dei comportamenti dell’utente sui siti per adulti. Dalla ricerca emerge che Facebook, Google, Oracle e Cloudflare sono tra le aziende più attive in tale settore.
Non deve stupire questo, visto che questi siti utilizzano il tracking dei visitatori e dei naviganti per indirizzare gli advertisment sulle pagine web e per creare il loro introito. Dal report risulta che 93% dei siti analizzati utilizzano script che registrano le abitudini di navigazione degli utenti e, di questi dati, il 74% viene inviato a Google, il 24% ad Oracle, il 10% a Facebook ed il 7% a Cloudflare.
Ma la cosa che dovrebbe preoccupare chi naviga (non solo nei siti per adulti) è che solamente solo una piccola parte di questi cookies (meno del 20%) invierebbe i propri dati sfruttando algoritmi di crittografia e quindi in maniera sicura. Per rendere un’idea di quanto possano essere invasivi i cookies di tracciamento basta pensare che alcuni antivirus e anti-malware li considerano come elementi malevoli!

Sulla base di quanto sopra detto si potrebbe pensare che utilizzare un servizio di VPN oppure di Tor durante la navigazione permetta di risolvere i problemi di privacy e di mantenere l’anonimato ma non è proprio così.
Un recente un articolo che Sven Slootweg (uno stimato sviluppatore indipendente) ha pubblicato sul suo blog personale ha infatti scoperchiato un vaso di cui già i programmatori conoscevano il contenuto ossia che utilizzare una VPN non garantisce l’anonimato.
Spieghiamo subito, per chi non lo sappia, cos’è una VPN.
Se cerchiamo su wikipedia cosa sia una VPN la cosa che la maggior parte degli internauti capisce è che in italiano questo termine è la traduzione di rete privata virtuale ma del resto, probabilmente, capirebbe assai poco. Se si cerca su youtube o su internet si è portati a identificare le VPN con la navigazione anonima e con la possibilità di fare quello che si vuole online senza il pericolo di essere scoperti.
In realtà, come dice Slootweg la VPN non è altro che un server proxy glorificato dalla maggior parte degli utilizzatori di internet.
Quando un utente “naviga” su di un sito web si collega al proxy (un computer remoto) e gli invia le richieste, il proxy si collega al server ospitante il sito web e gli inoltra la richiesta dell’ utente; una volta ricevuta la risposta, il proxy la manda al client richiedente.
Solitamente l’utilità di un proxy consiste nel fatto che velocizza la navigazione in quanto i siti visitati recentemente da qualunque utente di quella rete, vengono memorizzati nel proxy che in questo modo evita di scaricarli nuovamente e possono essere ricevuti alla massima velocità permessa dalla propria connessione.
Tramite un Poxy è anche possibile, per i provider internet o per le autorità giudiziarie dei vari paesi, bloccare l’accesso a taluni siti web o applicazioni online.
In pratica un proxy non è altro che un ponte tra l’utente e il sito web interessato.
Visto che i proxy, nella maggior parte dei casi, sono gestiti direttamente dai provider di accesso internet questi memorizzano la navigazione di un utente associando il suo indirizzo ip ( indirizzo che viene assegnato ad una macchina quando si collega alla rete internet) e gli indirizzi che visita.
Una VPN lavora, in un certo senso, allo stesso modo: agisce come un tunnel tra due diverse reti quella dell’utente e quella che intende raggiungere (per questo le VPN sono spesso utilizzate nel darkweb, dato che permettono di raggiungere anche reti non raggiungibili dal normali canali), bypassando il fornitore di accesso ad internet di un utente.
Il problema che anche i server delle reti VPN memorizzano in un log la navigazione che viene fatta da un utente, se non altro per potersi eventualmente tutelare da eventuali azioni giudiziarie, ma non c’è nessuna certezza di quali utilizzi il gestore del server VPN faccia dei nostri log, se li vende ad agenzie di advertisment, o se utilizzi la connessione di un utente alla VPN per scopi non legali.
Ogni utente che utilizza una VPN è infatti collegato ai loro servizi tramite il proprio indirizzo IP e se qualcuno vuole intercettare la connessione basta che lo faccia un qualsiasi altro punto, come quando si collega o si scollega alla VPN.
Inoltre, sebbene la connessione ad una VPN sia criptata non sempre lo è il trasferimento di informazioni con un sito, come nel caso dell’invio di dati dai form, non tutti i siti web hanno la criptazione dei dati (vedere l’articolo
https://www.filoweb.it/magazine/31-da-HTTP-a-HTTPS-).
Per finire per i moderni metodi di tracciamento l’indirizzo ip dell’utente sono meno rilevanti che nel passato e le grandi compagnie di marketing online utilizzano altre metriche per tracciare il profilo di chi utilizza un servizio e la sua identità.

A questo punto viene da chiedersi per quale motivo esistono le VPN se sono così poco sicure.
Bisogna prima di tutto considerare che le VPN sono nate per scopi aziendali, per dare modo ai dipendenti di accedere alle infrastrutture di un network privato da qualunque parte del mondo essi si trovino, la possibilità di essere utilizzate in ambito privato per dare l’idea di una navigazione anonima ha dato il via ad un business. La maggior parte dei servizi VPN disponibili sono a pagamento mentre quelli gratuiti sono pochi e consentono una limitata lista di utenti connessi contemporaneamente.
Si può scegliere di utilizzare una rete VPN nel caso ci si trovi ad utilizzare quella che viene definita connessione non sicura, come nel caso di aeroporti o stazioni o comunque connessioni wi-fi aperte, ma se il nostro intento è quello di navigare nel più completo anonimato allora rimane solo una sicurezza emotiva.

Sfumature di pensiero

L’universalità di internet deve corrispondere all’universalità di un pensiero eticamente unificato?
Abbiamo assistito il mese scorso a due eventi che ci portano a riflettere: la chiusura degli account Facebook dei profili di Casa Pound e di Forza Nuova e, pochi giorni dopo, la chiusura temporanea della pagina dei “Socialisti Gaudenti”.
È certamente giusto e doveroso da parte del gestore di un servizio non fomentare l’odio e l’intolleranza, nonché l’incitamento alla violenza, non solo per evitare eventuali conseguenze penali, ma anche per tutelare la propria reputazione.
Ma in base a cosa un’azienda prede queste decisioni?
Nel caso di Facebook, un’azienda statunitense con sede in America, le regole della comunità si basano sul "politicamente corretto" della società statunitense in termini di linguaggi, etica, immagini ammesse e lotta alla discriminazione sessuale, il tutto basato sul puritanesimo tipico della società statunitense.
Sugli stessi principi etici che intingono questo tipo di pensiero vediamo che la soluzione dei conflitti tra le persone all’interno della comunità virtuale vengono lasciate a loro, senza censurare l’utilizzo di insulti e, nel contempo, si lascia spazio ad un relativismo scientifico e culturale che spazia da i no vax agli ufologi, dai complottisti vari, ai terrapiattisti, in base al concetto tipicamente nord-americano che la libertà di parola deve valere sopra tutto.

Sebbene la rete internet stia sempre più diventando un sistema chiuso e proprietario rimane ancora una rete libera, universale e aperta ma, a differenza di appena 10 anni fa, è aumentato il numero di persone che ne usufruiscono mentre è diminuito nel contempo il numero di siti che vengono visitati. Certamente anche allora la maggioranza degli utenti visitava sempre stessi siti, ma oggi gran parte degli internauti va solamente a visitare i social network come Facebook, Twitter, Instagram, Vk e, da qua, nasce una riflessione importante: quanto una società privata, con sede all'estero, abbia il diritto di decide che cosa sia pubblicabile o meno aldilà delle leggi di un paese e della sua Costituzione?
La prima causa di questa polarizzazione etica è dovuta, nel vecchio continente, all’arretratezza Europea nei confronti degli USA nel settore dei Social Network e dei motori di ricerca che ha portato un’egemonia culturale della società nord-americana nei nostri confronti, un’egemonia che è accentuata anche dalla presenza in massa della società americana nelle nostre televisioni nella maggior parte delle serie televisive, dei film e dei libri.
Alcuni paesi, come la Cina o dove vigono regimi totalitari o teocratici, lo stato tende a limitare l’accesso ad alcuni siti o social per, a detta dei censori, tutelare la cultura autoctona, ma in realtà queste forme di censura servono solo a tutelare loro stessi.
Chiaramente la censura ed un atteggiamento pregiudiziale nei confronti di altri modi di pensare non è, e non potrà mai essere, la soluzione ad un’egemonia culturale che si impone in maniera indiretta, così come non è possibile illudersi di cambiare gli atteggiamenti radicati. Bisogna, invece cercare di evitare il monopolio culturale ed ideologico dei social network recuperando il divario tecnologico che ci separa dalla società americana, incentivando lo sviluppo di nuove idee e favorendo la nascita di società tecnologiche sul territorio europeo.
Fare questo non vuol dire chiudersi su se stessi o avere atteggiamenti che vengono considerati di una determinata visione politica, ma è importante considerare che, se ad esempio, negli Stati Uniti mostrare il seno in pubblico è considerato immorale, in Europa, una simile concezione è diversa e così, un post che mostra una donna a seno nudo che manifesta a favore della prevenzione del tumore non è considerato immorale e, quindi censurato, a differenza di quello che succede oltreoceano.
Sempre nelle differenze tra cultura Statunitense e cultura Europea vediamo che da noi è più facile fare battute su un determinato gruppo culturale o linguistico (le famose barzellette: c’è un Italiano, un Francese, un Tedesco...) mentre negli Stati Uniti questo può venir considerato scorretto e razzista.
Nell’ambito dei social network queste differenze sono ancora più enfatizzate e gli algoritmi ed i robot che si occupano di valutare il contenuto di un post sono tarati su quello che è considerato “bene” dalla cultura che lo ha generato, in questo caso quella Americana che è molto diversa da quella europea.

L’ esempio di paese che è riuscito a mantenere una propria identità online è quello della Russia.
Nel 1997 (un anno prima di Google) nasce Yandex, un motore di ricerca costruito sul linguaggio e gli algoritmi russi che ancora oggi è più utilizzato di Google in tutti i paesi di lingua e cultura Russa che facevano parte dell’ex URSS, offrendo gli stessi servizi (che vanno dal noleggio auto alla vendita online, dalle mail gratuite alla richiesta di taxi) che sono offerti dai colossi made in USA ma pensati per un bacino di utenza culturalmente diverso. Nel 2011 la società è stata quotata nella borsa di New York ed ha ottenuto un valore di 1.3 miliardi di dollari, aprendo poi filiali in tutto il mondo, proprio come BigG e Facebook.
Vediamo quindi che, agevolare la nascita di motori di ricerca e social network a livello nazionale non vuol dire solamente tutelare la propria cultura ma anche offrire la possibilità di nascere ad aziende che hanno il potenziale di creare indotto e ricchezza per un paese.
Certo a livello Europeo le cose sono un po’ più complicate, siamo un insieme di stati e popoli che tendono ad avere una visione nazionalistica del concetto di unione europea ed abbiamo una moltitudine di lingue che complicano la realizzazione di un progetto europeo, ma recuperare il tempo perso non è impossibile ed è ancora fattibile.

La rivincita dell’Open Source.

Quando Linus Torvald nel 1991 ideò un proprio sistema operativo per testare il suo nuovo computer a 32 bit non pensava certo che avrebbe creato una rivoluzione nel mondo dell’informatica e di rimanere, nel contempo, sconosciuto alla maggior parte delle persone comuni.
La prima volta che sentii parlare di linux avevo poco più di vent’anni ed era al corso di informatica di ingegneria dell’università di Padova; fino ad allora la mia conoscenza dei computer era quella che avevo maturato durante gli anni sui computer a 8 e 16 bit (Comodore, MSX, ecc) e sul mio PC 8088 con sistema operativo DOS che, con grande disappunto, scoprii di dover cambiare per poter installare ed utilizzare quel sistema operativo da casa anziché i computer dell’università.
Per chi volesse approfondire la genesi di questo sistema operativo consiglio il bellissimo libro di L. Torvald e D. Diamond “Rivoluzionario per caso. Come ho creato Linux (solo per divertirmi)”, mentre chi vuole sapere quale importanza ha avuto questo progetto nel mondo dell’informatica e come mai grandi nomi dell’informatica si stiano sempre più avvicinando al mondo dell’Open Source consiglio di proseguire con la lettura di questo articolo.

Visto che il nome completo di linux è GNU/Linux, per capire di cosa parleremo, bisogna prima di tutto chiarire il concetto di software libero e di cosa significa quell’ acronimo ricorsivo che precede il nome del sistema operativo.
Nel 1985 l’informatico Richard Stallman fondò un’ organizzazione senza fini di lucro per lo sviluppo e la distribuzione di software libero, in netto contrasto con il mercato dei software protetti che si stava sviluppando. L’idea di base era che un codice sorgente deve essere pubblico per poter essere modificato in base alle necessità di chi lo utilizza. In realtà l’idea di Stallman era già nata l’anno prima con il progetto GNU ("GNU's Not Unix") per creare un sistema operativo Unix like libero nell’utilizzo e libero di essere modificato a piacimento. Purtroppo l’idea di Stallman non riuscì per molti anni a realizzarsi in quando non era ancora stato sviluppato un Kernel1.
Nel 1991 un giovane studente di informatica dell’università di Helsinki passò l’estate chiuso in camera sua a creare un proprio sistema operativo per testare il suo nuovo computer basato su processore i368 e, una volta finito di elaborare il progetto, lo mise in rete (all’epoca la maggior parte degli utilizzatori di internet erano nerd, studenti, professori universitari, organizzazioni governative) per condividerlo chiedendo solamente che gli venisse mandata una cartolina da coloro che provavano e apprezzavano il suo lavoro; questo studente era Linus Torvald che in breve tempo si ritrovò la camera piena di cartoline da tutto il mondo!
Torvald decise di distribuire il suo sistema operativo sotto la licenza Open Source che è caratterizzata da quattro principali caratteristiche: libertà di eseguire il programma per qualsiasi scopo, libertà di studiare il programma e modificarlo, libertà di ridistribuire copie del programma, libertà di migliorare il programma e di distribuirne pubblicamente i miglioramenti. Da allora Linux si è sviluppato tramite molti collaboratori che vedendone il codice lo migliorano, lo implementano e lo ridistribuiscono, mentre il suo creatore mantiene solo il ruolo di coordinare e decidere quali migliorie possono essere implementate e ridistribuite.
La nascita di Linux coincide anche con due grandi momenti della storia dell’informatica: la grande distribuzione e disponibilità di computer presso gli utenti finali e la diffusione di Internet.
Molte aziende di software iniziarono a distribuire versioni personalizzate di Linux (per questo quando si parla di questo sistema operativo si parla di distribuzione mentre quando si parla di versione ci si riferisce alla sola versione del Kernel) facendo pagare solo il costo del supporto (nel caso venga distribuito su CD) e dell’assistenza.
Visto che linux è un sistema operativo Unix-Like ci si accorse subito di quanto era indicato allo sviluppo dei server e, avendo un prezzo pressoché nullo, ottenne un grande successo nei primi internet provider che offrivano accesso alla rete e che ospitavano i primi siti web che stavano nascendo, permettendo di abbattere i prezzi ai fruitori di tali servizi. Per fare un esempio consideriamo che senza Linux, oggi, non avremmo Facebook, Twitter e moltissimi social network che sono nati inizialmente su hosting linux visto il budget limitato dei loro creatori; allo stesso modo il sistema operativo Android (che equipaggia la maggior parte degli smartphone in circolazione) è stato sviluppato da Google sul kernel Linux 2.6 e 3.x ed è per la maggior parte (a parte alcuni firmware2 proprietari) un progetto open source coordinato da Google che prende il nome di “progetto Open Source Android”.

Negli ultimi vent’anni sono state sempre di più le aziende che hanno abbracciato più o meno completamente, il mondo dell’Open Source. Un esempio eclatante è quello della storica azienda americana IBM che ha iniziato ad avvicinarsi all’Open Source fin dal 2004 quando al Linux World Conference & Expo a San Francisco, Nick Donofrio, senior vice president of technology and manufacturing di IBM, ha fatto sapere che Big Blue “non ha nessuna intenzione di usare i brevetti in possesso per attaccare Linux”.
In quel tempo, infatti, IBM deteneva circa 60 brevetti che si supponeva Linux potesse infrangere. La speranza di Donofrio, all’epoca, era anche che altre aziende seguissero l’esempio di IBM, poiché prevedeva una notevole diffusione del movimento open source nella decade successiva. Nel 2013 Big Blue sancisce la nascita della OpenPOWER Foundation, una comunità tecnica aperta, basata sull’architettura Power di IBM, il cui obiettivo è creare un ecosistema open, disposto a condividere competenze, investimenti e proprietà intellettuale di classe server, per facilitare l’innovazione a livello hardware e software e semplificare la progettazione dei sistemi.

L’open source è stato anche alla base di uno dei progetti informatici sociali più rivoluzionari a livello mondiale: “One Laptop Per Child”  (http://one.laptop.org/) ideato da Nicolas Negroponte.
OLPC è un'organizzazione no-profit che si prefigge come scopo aiutare i bambini più poveri del mondo attraverso l'istruzione e, per raggiungere questo l'obiettivo, l’intenzione è di fornire ad ogni bambino un laptop robusto, a basso consumo, connesso ad internet ad un prezzo di solo 100$ (in realtà la prima fornitura di computer nel 2007 ebbe un costo di 130$ al pezzo).  È chiaro che senza un sistema che sta alla base open source non sarebbe mai stato possibile riuscire in questo intento e molti altri progetti open source (come wikipedia) hanno offerto la loro collaborazione al progetto. Malgrado l’idea però il progetto non riuscì mai ad emergere completamente in quanto l’avvento degli smartphone economici (che utilizzano sempre sistemi operativi open source) fa sembrare inutile la creazione di un computer con quelle caratteristiche.

L’ultimo annuncio importante nel mondo dell’open source viene dall’azienda cinese Huawei che, dopo le dichiarazioni del presidente USA Trump su eventuali embarghi americani, ha iniziato la prima distribuzione di personal computer laptop con sistema operativo Linux anziché windows (con un risparmio notevole per l’utente finale che non deve pagare la licenza) e che, nel contempo, sta sviluppando un suo sistema operativo per i suoi smartphone, sempre basato sul kernel di Linux e sempre Open Source.
Visto che sempre più app e servizi si stanno spostando all'interno del mondo delle web app questa potrebbe essere una buona occasione per favorire la diffusione di sistemi operativi alternativi a Windows?
D’altronde sono sempre più le aziende, pubbliche o private, che stanno passando al software libero: nel giugno del 2019 il CERN (lì dove è nato il World Wide Web!) ha avviato un ambizioso piano di trasformazione del suo reparto IT per sganciarsi dalle insostenibili richieste economiche del software a codice chiuso fornito da Microsoft (che non fornirà più le licenze accademiche al centro ricerche) e passare a software Open Source, così come ha già fatto il governo sud coreano e così come stanno facendo molte pubbliche amministrazioni che sono, inoltre, obbligate a rilasciare in formato open source il software che loro stesse sviluppano.

La stessa Microsoft, che per anni si è battuta per le licenze software chiuse, d’altronde, ha iniziato un lento avvicinamento al mondo dell’open source entrando nella Linux Foundation con un esborso annuo di 500 mila dollari che le permette di sedere nel consiglio d’amministrazione della fondazione.
Alla fine degli anni ’90 del secolo scorso Microsoft e Linux erano visti come due mondi opposti ed erano considerate dai loro utilizzatori scelte di vita piuttosto che semplici opzioni informatiche, tanto che nel 2001 l’allora CEO di Microsoft Steve Ballmer definì Linux come un “cancro”, mentre oggi, con l’entrata di Microsoft nella Linux Foundation, Scott Guthrie (Vice President di Microsoft Cloud ed Enterprise Executive) commenta: “Linux Foundation è la casa non solo di Linux, ma anche dei progetti più innovativi della comunità open-source. Siamo entusiasti di aderire alla Linux Foundation”.
Così anche Microsoft, insieme a grandi aziende come Cisco, Fujitsu, HPE, Huawei, IBM, Intel, NEC, Oracle, Qualcomm, Samsung, Google e Facebook entra a far parte del mondo Open Source anche se questo non vuol dire che Windows e Office saranno distribuite gratuitamente.
L’avvicinamento di Microsoft al mondo Open è stato graduale e continuo, seppur lento. Per fare un esempio il 40% delle macchine virtuali su Azure (il cloud Microsoft per lo sviluppo) sono basate su Linux, mentre Windows 10 versione per sviluppatori contiene strumenti software open source che provengono sempre dal mondo Linux: dalla Bash (la classica shell o prompt dei comandi), agli strumenti di sviluppo che possono essere integrati dentro Windows 10 accanto ai classici di Microsoft come PowerShell, Chakra Core e Visual Studio Code. Da qualche tempo, inoltre, Microsoft ha stretto una partnership con Canonical per portare Ubuntu (una delle più famose distribuzioni Linux) su Windows 10.

Nel giugno del 2018 Microsoft ha acquistato il principale social network per gli sviluppatori, github.com, ad un prezzo di 7,5 miliardi di dollari quando nel 2016 il servizio ha incassato solamente 98 milioni di dollari in nove mesi, a fronte di una valutazione del 2015 che vedeva  GitHub quotato due miliardi di dollari. Perché allora Microsoft ha pagato così tanto questa piattaforma che sviluppa essenzialmente progetti Open Source?
Su questa piattaforma sono attualmente ospitati 80milioni di progetti software ed è utilizzata da  27 milioni di utenti, per la maggior parte sviluppatori. Se si considera che negli ultimi dieci anni  non è emersa nessuna infrastruttura software a livello di piattaforma dominante in forma chiusa o proprietaria, ma tutte sono nate da idee e progetti open source (come ad esempio MongoDB) e che moltissime app si basano su piattaforme open source, è facile immaginare che la scelta di Microsoft sia soprattutto quella di invogliare gli sviluppatori ad utilizzare le sue piattaforme (come Azzure) piuttosto che voler vendere più software. Ecco quindi che alcuni programmi per lo sviluppo, come  Visual Studio,  sono messi a disposizione da Microsoft nella versione base libera di essere scaricata ed installata, mentre per le versioni superiori si continua a dover pagare la licenza; Visual Studio Code  viene distribuito con licenza permissiva e alcuni dei componenti core di .NET vengono rilasciati addirittura con licenza open source.
È facile supporre che, dopo aver perso la sfida nel mondo degli smartphone, Microsoft non intenda ripetere la stessa esperienza nel mondo dello sviluppo dei software ed abbia intenzione di avviare quel processo che IBM ed altre aziende hanno già iniziato: dal 2016, infatti, il software open source è alla base dei quattro pilastri – mobility, cloud, social business e big data3 – della trasformazione digitale in atto.

 

1 Il kernel è il componente centrale di ogni sistema operativo che ha il compito di  fare da ponte tra le componenti hardware di un computer – come processore, RAM, hard disk, ecc. – e i programmi in esecuzione sulla macchina.
2 Il firmware non è altro che un particolare tipo di programma, normalmente memorizzato su una piccola memoria non volatile (quindi una rom) , posto all’interno di un computer, di uno smartphone, di un tablet, di un masterizzatore, di una smart TV e in quasi tutti i dispositivi elettronici, con il compito di far correttamente avviare il dispositivo e di far dialogare l’hardware con il software.
3 Con il termine Big Data si intende la capacità di usare la grande quantità di dati che vengono acquisiti (solitamente online attraverso i social network, la navigazione, lo scarico di file, ecc.) per elaborare, analizzare e trovare riscontri oggettivi su diverse tematiche.

Assistenti vocali e privacy

La mancata consapevolezza dell’uso della tecnologia a volte ci porta a perdere alcuni diritti fondamentali che abbiamo guadagnato come quello alla privacy.
Non è insolito, quando un comune decide di installare delle telecamere di videosorveglianza in una via o in una zona di una qualche città vedere la nascita di comitati contrari che si battono in nome della difesa della privacy dei cittadini. Non meraviglia poi vedere quelle stesse persone che fanno parte dei comitati "dettare" un promemoria o un messaggio da inviare al loro assistente vocale o, una volta rientrate a casa, dire: "Alexa - o Cortana, o google- fammi ascoltare della musica".
Che relazione c’è tra le due azioni? Possiamo dire che entrambe sono un accesso alla nostra privacy, ma mentre nel caso delle telecamere il loro uso è regolamentato da leggi e il loro scopo è quello di una maggior tutela del cittadino, nel caso degli assistenti vocali, invece, non vi è alcuna regolamentazione specifica (se non quella generica sull’uso dei dati personali) e lo scopo è quello di fornirci un servizio personale.

Quello degli assistenti vocali non è un fenomeno nuovo anche se solamente negli ultimi anni ha iniziato a svilupparsi e ad essere veramente funzionale, grazie al miglioramento delle tecnologie di Machine learning e delle intelligenze artificiali.
A memoria di chi scrive già alla fine degli anni ’90 del secolo passato si iniziavano a vedere i primi programmi che permettevano di controllare il computer tramite la voce, aprire chiudere i programmi, dettare una mail, leggere un testo, prendere appuntamenti nel calendario ricordandoli e molto altro ancora. Uno dei primi software a funzionare nei computer domestici fu messo in commercio nel 1997 dalla Dragon System con il nome di "Dragon Naturally Speaking" ed era uno dei più sofisticati programmi di controllo del computer tramite l’uso di un linguagio naturale; la stessa Microsoft nella beta del sistema operativo WindowsNT5 (che poi diventerà windows 2000) aveva preinstallato un assistente vocale che si attivava tramite “Hey computer!” seguito dal comando. Ad esempio si poteva dire "Hey computer! start running word" ed il computer faceva partire il programma word.
Il problema di questi programmi era che avevano bisogno di molto tempo per "imparare" a capire la voce di chi parlava ed i comandi che venivano invocati, oltre a necessitare di molte risorse delle macchine sulle quali giravano.
Oggi ogni smartphone è dotato di assistente vocale, i computer dotati di windows10 hanno anche loro un loro assistente vocale chiamato Cortana, mentre le grandi compagnie del web sviluppano i loro assistenti che si integrano con i device di casa senza bisogno di un classico computer, come ad esempio Amazon Echo, o Google Home.
La prima azienda che nel secondo decennio del nuovo millennio diede un importante contributo alla rinascita degli assistenti vocali ed alla loro evoluzione è stata la Apple che nel 2011 lanciò Siri che ancora oggi è parte integrante dei dispositivi dell’azienda di Cupertino.
La principale differenza tra Siri (così come di tutti i moderni assistenti vocali) ed i programmi della generazione precedente è che la nuova generazione lavora tramite connessione internet in remoto: i comandi non vengono più elaborati dal processore della macchina sulla quale gira l’assistente vocale, ma la voce viene inviata ad un server remoto che la elabora e rimanda all’assistente il comando relativo alla richiesta. In questo modo il dispositivo che viene usato dell’utente diventa un semplice terminale e tutto il carico di lavoro viene relegato ai server, così si può anche evitare il tedioso passaggio del machine learning che viene già eseguito a monte.
Ma la sola intelligenza artificiale presente sui server ed il processo di machine learning dovuto a centinaia di migliaia di utenti che ogni giorno comunicano con il proprio assistente virtuale è sufficiente a creare quella interazione uomo macchina che permette di controllare una casa smart o sviluppare tutte quelle funzioni che offrono Alexa, Ok Google, Cortana e Siri senza sbagliare? Forse no!

Un reportage realizzato dalla televisione pubblica belga Vrt Nws ha messo in luce che Google, Apple e Amazon, con la scusa di migliorare i servizi offerti dagli assistenti vocali, hanno spiato la propria utenza attraverso gli stessi assistenti.
Il canale televisivo Vrt Nws sarebbe entrato in possesso di alcune conversazioni registrate "accindentalmente" senza che venisse attivato l’assistente vocale google piene di dati personali e dati sensibili come i discorsi fatti all’interno di un’ignara famiglia o quelli di un utente che parla della sua vita sentimentale. Il fatto inquietante è che non solo i dipendenti di google hanno accesso alle conversazioni ma anche le aziende partner per permettere di comprendere meglio gli ordini degli utenti. Dal canto suo l’azienda di Mountain View si è giustificata dicendo che "solo lo 0,2% di tutte le registrazioni è accessibile a chi lavora per Google e che i file audio sono comunque privi di informazioni che permettono di identificare l’utente". Mentre l’inchiesta della televisione belga era principalmente incentrata su google, un’ inchiesta del Guardian rivela che un processo analogo è operato anche da Apple tramite Siri e da Amazon tramite Alexa; Bloomberd, invece, racconta come Amazon tramite persone che lavorano anche nove ore al giorno in tutto il mondo e team di aziende appaltatrici che vanno dagli Stati Uniti alla Romania, dall’ India al Costarica, ascolta le registrazioni vocali catturate dai dispositivi Echo, le trascrive, le annota e quindi le inserisce nel software per eliminare le lacune nella comprensione del linguaggio umano da parte di Alexa e aiutarlo a rispondere meglio ai comandi.
Anche Amazon, come Google si è difesa dicendo che il campione di audio che viene ascoltato è molto limitato: "Abbiamo rigorose garanzie tecniche e operative e una politica di tolleranza zero per l'abuso del nostro sistema. I dipendenti non hanno accesso diretto alle informazioni che possono identificare la persona o l'account. Tutte le informazioni sono trattate con alta riservatezza".

In questo contesto non è facile capire se venga o meno violata la privacy dei proprietari dei dispositivi incriminati, ma, sicuramente, la faccenda ha preoccupato il garante della privacy di Amburgo che ha imposto una pausa temporanea alla pratica di 3 mesi a Google e suggerito agli altri big del settore di fare lo stesso, fino a quando non saranno concluse le indagini avviate riguardo l’uso che viene fatto dei dati raccolti: "L’uso di assistenti vocali automatici da parte di provider come Google, Apple e Amazon - evidenzia l’Autority - prova l’elevato rischio per la privacy delle persone coinvolte".
Questa pratica, comunque non è appalto esclusivo degli assistenti vocali. Anche l’azienda Facebook, si è scoperto, tendeva a trascrivere i messaggi audio delle conversazioni degli utenti della chat "messanger" e non è escluso che lo stesso sia stato fatto per whatsapp.
Quando si decide di utilizzare una tecnologia che non sempre è sotto il nostro controllo bisogna sempre considerare la possibilità di dover rinunciare a una parte, più o meno grande, della nostra privacy.
Ma il prezzo che stiamo pagando è giusto?
La risposta la sapremo solo in futuro

Deontologia nei social: obbligo o scelta?

Troppo spesso ci dimentichiamo che Facebook come la maggior parte dei social network non è un nostro spazio privato ma un luogo pubblico dove chiunque può leggere quello che scriviamo, indipendentemente dal grado di privacy che usiamo. Basta solo che uno dei nostri contatti condivida un nostro post per renderlo pubblico, aumentarne la visibilità e renderlo disponibile per sempre.
Ma in fondo è questo il motivo per il quale scriviamo i post, la ricerca di visibilità, la caccia ai Like, e rimaniamo profondamente turbati se un nostro post non viene accolto con entusiasmo dato che la maggior parte dei nostri contatti sono affini a noi per idee.
Proprio il fatto che i social network siano uno spazio pubblico ci dovrebbe portare a considerare quello che postiamo prima di pubblicarlo; così come un giornalista o un proprietario di un blog o di un sito è responsabile di ciò che pubblica anche l’accesso ai social network dovrebbe essere subordinato all’uso di una qualche forma deontologica.
Questo non succede!

Jeremy Bentham può essere considerato il padre della deontologia moderna con la sua opera postuma “Deontology or the Science of Morality” del 1834 dove elabora un'etica, chiamata appunto deontologia.
Lo scopo ultimo di questa scienza è quello di motivare comportamenti che producano la massima felicità nella collettività che, a differenza della legislazione che agisce sugli interessi privati con la minaccia della punizione giuridica, suscita motivazioni basate sull'interesse privato. Le idee di Bentham vengono applicate negli ordini professionali moderni agli avvocati, dagli ingegneri ai giornalisti; e proprio come per questi ultimi anche per quello che riguarda i social network bisognerebbe adottare una qualche forma deontologica per chi vi accede per pubblicare post quando non sono strettamente personali.
Ma le difficoltà che si presentano sono molte e di vario tipo.
Partiamo nel considerare che la rete offre una grande libertà di espressione che si esprime sia nella fruizione dei contenuti e sia nell’espressione che spesso degenera in eccessi; fino a quando c’era quello che comunemente veniva chiamato Web 1.0 ovvero vi erano siti web che pubblicavano contenuti e utenti che vi accedevano e l’interazione era limitata ai forum ed ai newsgroup era abbastanza facile gestire questi eccessi: il proprietario di un sito web era (ed è tutt’ora) il responsabile di quanto vi appare e quindi ha tutto l’interesse a che quello che viene pubblicato rispetti determinate leggi scritte o morali; discorso analogo per i forum dove vi era un moderatore.
Con l’avvento del Web 2.0 le cose si complicano: tramite i social network chiunque può creare un profilo
( anche falso) e diventare editore e pubblicista, solo che in questo modo si crea un limbo dove è difficile attribuire delle responsabilità; il fatto poi che il profilo venga definito “personale” crea nell’utente la falsa considerazione che tutto sia permetto e lecito sul “nostro profilo personale”.

In realtà le cose non stanno esattamente così. Come abbiamo già detto tutto quello che pubblichiamo diventa subito disponibile e usufruibile da tutti e quindi dovremmo sempre pensare prima di pubblicare qualcosa.
Un esempio è accaduto l’ 8 dicembre del 2014, quando il cantante Mango si accasciò sul palco durante un concerto e vi morì sotto gli occhi dei suoi fan che con smartphone e tablet stavano riprendendo il concerto; nulla di sbagliato se non fosse che nel giro di pochi minuti tutti questi video furono pubblicati sui social e la notizia si propagò, prima di diventare ufficiale e che ne venissero informati i famigliari. Nel caso di un giornalista che fosse venuto a conoscenza della notizia avrebbe dovuto attendere che la famiglia ne fosse informata prima di divulgare la notizia, ma anche i giornalisti, in questo caso, per non “bucare” la notizia si sono visti costretti a pubblicarla.

Un altro problema che si presenta con i social network è la loro atemporalità. Il termine virtuale (che oggi è tanto usato) ha origine nel latino medioevale, deriva da “virtù”, e indica ( secondo Tommaso d'Aquino) la potenza attiva in grado di passare all’atto e diventare attuale. Questa è la rete e questi sono i social network dove tutto è attuale sempre e per sempre, dove il virtuale è diventato reale: una notizia o un post di anni fa può essere ripubblicato o ripresentato e ritorna ad essere attuale, decontestualizzato da quelli che sono il tempo e gli avvenimenti che lo hanno generato. I nostri post, una volta pubblicati, rimangono per sempre rendendo difficile l’esercitare il diritto all’oblio (da non confondere con il diritto all’oblio del GDPR).

Gli utenti del web sono sempre più fornitori di informazione e hanno creato una forma depravata di city journalism dove tutti sono fornitori di informazioni ed editori di se stesse senza esserne responsabili.
La mancanza di regole però deve essere riempita. Il solo articolo 21 della costituzione (libertà di espressione utilizzando ogni mezzo) non può essere preso a pretesto per creare l’anarchia informativa.
Quando i legislatori hanno scritto l’articolo 21 i mezzi di comunicazione erano limitati ai giornali, radio e Tv che stava nascendo ma che comunque erano sempre vincolati a degli editori che ne dettavano le linee guida deontologiche. Anche con la nascita delle radio libere degli anni ’70 del ventesimo secolo e delle televisioni commerciali degli anni ’80 c’era sempre un certo controllo deontologico sull’informazione.
Con la diffusione del web negli anni ’90 ed in particolare la nascita del web 2.0 si è diffusa l’idea di diritto alla libertà di espressione per tutti senza doverne avere i doveri.
Mentre per un sito o un blog il proprietario può essere considerato l’editore oltre che il pubblicista e ne risponde nei social network non è così: il social (ad esempio Facebook) diventa coproprietario dei nostri post e li può vendere o condividere a suo piacimento, ma non ne è direttamente responsabile e viene a mancare quello che può essere considerata la figura dell’editore.

La soluzione sarebbe facile, basterebbe che un social network al momento dell’iscrizione facesse accettare delle clausole “morali e deontologiche” che impongano, a chi è fruitore del servizio, di rispettare il diritto alla dignità personale delle persone, alla giusta informazione non decontestualizzata, al rispetto della privacy e all’oblio di altri che vengono nominati, regole simili a quelle deontologiche dell’ordine dei giornalisti per notizie di carattere pubblico, dato che spesso sono assimilabili ad essi.
Bisogna poi che chi si iscrive abbia la coscienza e la conoscenza che entra in un mondo dove tutto è pubblico, ma difficilmente un dodicenne (visto che è l’età minima per iscriversi a Facebook) ha la consapevolezza di ciò; bisogna sapere che il diritto alla deindicizzazione che applicano i principali motori di ricerca non porta automaticamente al far sparire da internet quello che abbiamo scritto, detto o pubblicato.

Quello che serve è uno sforzo comune tra autorità centrali (esempio parlamento europeo) e le grandi aziende del web 2.0 per creare prima delle regole che prima diventano un obbligo in quanto imposte ma poi si trasformano in regole implicite da tenere, sull’uso dei social e di ciò che vi si pubblica.
In realtà l’Italia ha già iniziato un processo per la regolamentazione deontologica di internet: nel 2015 viene redatta dal consiglio dei ministri la “Dichiarazione dei diritti in Internet” dove nell’articolo 9 comma 1 dichiara :” Ogni persona ha diritto alla rappresentazione integrale e aggiornata delle proprie identità in Rete”. Quando parliamo di identità intendiamo non solo l’aspetto fisico, il nome ed il cognome ma anche le opinioni, i valori e quant’altro identifichi una persona nella sua completezza in quel determinato periodo e luogo; estrapolare, tagliare o riproporre post, frasi o immagini senza tener conto di questo è una violazione di quanto sopra.
Ancora più interessante è l’articolo 11 nella sua interezza: “1. Ogni persona ha diritto di ottenere la cancellazione dagli indici dei motori di ricerca dei riferimenti ad informazioni che, per il loro contenuto o per il tempo trascorso dal momento della loro raccolta, non abbiano più rilevanza pubblica. 2. Il diritto all’oblio non può limitare la libertà di ricerca e il diritto dell’opinione pubblica a essere informata, che costituiscono condizioni necessarie per il funzionamento di una società democratica. Tale diritto può essere esercitato dalle persone note o alle quali sono affidate funzioni pubbliche solo se i dati che le riguardano non hanno alcun rilievo in relazione all’attività svolta o alle funzioni pubbliche esercitate. 3. Se la richiesta di cancellazione dagli indici dei motori di ricerca dei dati è stata accolta, chiunque può impugnare la decisione davanti all’autorità giudiziaria per garantire l’interesse pubblico all’informazione.” Quando noi riproponiamo un post di 10 anni fa, senza nessun collegamento a vicende attuali, solo per screditare questa o quella persona violiamo questo articolo.
Nell’articolo 12 poi si parla di obblighi da parte delle piattaforme digitali nei confronti degli utenti, mentre nell’articolo 14 al comma 1 si legge:” Ogni persona ha diritto di vedere riconosciuti i propri diritti in Rete sia a livello nazionale che internazionale.”; la dichiarazione finisce con il comma 7 che mette in evidenza la necessità di creare strutture nazionali e sovranazionali: ”La costituzione di autorità nazionali e sovranazionali è indispensabile per garantire effettivamente il rispetto dei criteri indicati, anche attraverso una valutazione di conformità delle nuove norme ai principi di questa Dichiarazione.”
Per chi volesse approfondire il testo integrale è disponibile sul sito della camera dei deputati.

Come si vede in Italia il problema di una forma di regolamentazione è molto più sentito che in altri paesi ( come ad esempio gli Stati Uniti) dove prevale il principio di libertà di espressione sopra ogni altro.
Per adesso, comunque, per quanto ci riguarda anche quando pubblichiamo qualcosa su un social network dobbiamo ricordarci sempre che siamo vincolati alle leggi del nostro paese in materia, quindi esiste il codice civile e penale, bisogna rispettare le regole sui diritti d’autore, sull’implicito consenso se pubblico foto che raffigurano in primo piano una persona, se posto dei fotogrammi tratti da un film non devono essere della scena madre, se posto un concerto o una rappresentazione teatrale non superare i 3 minuti, quando cito qualcuno o parte di un libro mettere sempre la fonte e i riferimenti senza decontestualizzare la frase e tutte le altre regole che esistono per l’editoria classica anche se sono un semplice utente di facebook.

Siti web ikea vs artigianali

Quando si decide di fare un sito web, per prima cosa bisogna decidere il tipo di “stumento” da utilizzare. Principalmente ci si orienta tra l’affidarsi ad un CMS e l’affidarsi a un Frameworks1 ( tralasciamo i classici  siti web statici fati solamente in HTML e CSS in quanto obsoleti). Per capire di cosa stiamo parlando iniziamo con il dire che i CMS (Sistemi di gestione dei contenuti) riducono, per l’utente che lo usa, la necessità di avere conoscenze specifiche di programmazione, mentre un frameworks fornisce una serie funzionalità che è possibile utilizzare per creare un sito personalizzato.

Cosa sono i CMS
I CMS, come abbiamo detto sopra, sono un sistema che permette di gestire i contenuti senza la necessità di una conoscenza specifica.  Tra i Content Management Systems più famosi spiccano Wordpress, Joomla!, Drupal, Magneto, Wix.
Le caratteristiche di ogni CMS sono diverse ma il loro nucleo e metodo di utilizzo è suppergiù il medesimo:

  • l’utente installa sul suo server il CMS tramite semplici passaggi (solitamente 1 o 2)
  • sceglie un template2 tra quelli disponibili
  • Inserisce i contenuti
  • Attiva eventuali Plug-in3

 

Da questi passaggi si evince che un CMS non necessita di nessuna conoscenza di programmazione in quanto si bassa su moduli preinstallati.

Cos’è un Frameworks
Un framework è un'architettura logica di supporto su cui un software può essere progettato e realizzato (quindi non è un linguaggio di programmazione!). La sua funzione è quella di creare una infrastruttura generale, lasciando al programmatore il contenuto vero e proprio dell'applicazione. Lo scopo di un framework è infatti quello di risparmiare allo sviluppatore la riscrittura di codice già scritto in precedenza per compiti simili.
Un Framework permette di interagire con un linguaggio di programmazione (e, come nel caso di .Net, di compilarne il codice).
I frameworks più famosi per la creazione di applicazioni web sono:

  • .Net ,che può interagire con diversi linguaggi che vanno dal C# al Vb.Net
  • Laravel e Symfony, che interagisce con PHP
  • Angular e Node.js, ottimi per Jscript
  • Django, creato per Phyton
  • Ruby on Rails, ottimo per usare Ruby

 

Si capisce subito che utilizzare un Frameworks richiede conoscenze specifiche e necessita di più tempo per la realizzazione di un progetto.

Personalizzazione
A chi utilizza principalmente i CMS per creare siti web piace molto il motto “perché reinventare la ruota se esiste già?” per riferirsi al fatto che per i CMS esistono centinaia di migliaia di templates disponibili (gratis o a pagamento)  tra i quali scegliere e quindi non ha senso sforzarsi nel creare del nuovo codice e dei nuovi layout per un progetto web. In realtà la maggior parte di chi utilizza i CMS non ha molte conoscenze di programmazione e tende a nascondersi dietro questo modo di pensare.
Tramite un CMS, infatti si hanno a disposizione, come già accennato sopra, tutta una serie di strumenti, tools e plug-in tra i quali scegliere e facilmente installabili e configurabili ma…
Potrebbero insorgere complicazioni quando è necessario che il sito web si adatti alle proprie esigenze specifiche.
Con un framework, invece, si deve creare un progetto da zero, il che porta a realizzare caratteristiche uniche e distintive: i framework sono altamente personalizzabili mentre un  CMS ha in genere dei limiti.
Con un CMS, ad esempio,  non è possibile modificare la funzionalità di base o non si aggiornerà correttamente, mentre un framework non ha limiti!
La realizzazione di un progetto web tramite un frameworks anziché di un CMS comporta, quindi, dei tempi di lavorazione più lunghi (tenendo conto della progettazione, debug4, ecc.) ma un grado di personalizzazione maggiore.

Sicurezza
Sucuri (azienda leader nel monitoraggio e protezione dei siti web) ha rilevato che nel 2018 la maggior parte dei siti web hackerati (90%) erano fatti tramite Wordpress (che è il CMS più utilizzato), seguiti da Magneto e Joomla!.
Gli esperti hanno rilevato che la maggior parte degli attacchi avvenivano tramite plug-in o non aggiornamenti dei sistemi stessi.
Il motivo di questa grande quantità di attacchi è presto chiarita: i CMS ed i relativi Plug-in, sono per la maggior parte progetti Open Source5 e quindi chiunque ne può vedere il codice sorgente ed eventualmente le vulnerabilità (così come chiunque può correggerle!)
Un progetto che utilizza un frameworks, invece, è quasi sempre scritto tramite un codice personalizzato e specifico da chi lo crea e quindi (a parte le vulnerabilità delle infrastrutture) risulta meno soggetto ad attacchi hacker.
Un framework ben sviluppato è molto più sicuro di un CMS generico, anche se i sistemi di gestione dei contenuti hanno spesso plug-in scritti per rafforzare la loro sicurezza.

Flessibilità
Indipendentemente dal tipo di progetto che si vuole creare può nascere la necessità di dover integrare lo stesso con delle funzionalità non previste come ad sistemi di  CMR (customer relationship management ovvero la gestione dei rapporti con i clienti) che possano interagire con altri strumenti e/o siti, come nel caso di Salesforce6.
Un progetto sviluppato tramite un framework sarà benissimo in grado di integrarsi e modellarsi con ogni necessità, mentre un progetto creato tramite un CMS dovrà “adattarsi” in base ai plug-in disponibili oppure affidarsi alla realizzazione dei plug-in personalizzati tramite un programmatore o un’ agenzia con costi molto elevati.
Certo esiste anche la possibilità di creare progetti personalizzati che si basano sul core di un CMS ma in questo caso i costi partono, spesso, dai 5.000 euro superando, a volte, i 10.000, quindi non molto lontani (a volte anzi superiori) da quelli della realizzazione di una piattaforma web tramite l’uso di un frameworks.
Quando si parla di flessibilità, quindi, un frameworks offre un grado di libertà a 360° a fronte di costi di sviluppo più alti, mentre un CMS risulta molto più limitato con un costo minore.

Cosa segliere?
I CMS ed i Frameworks cono strumenti completamente diversi e la scelta di utilizzare l’uno anziché l’altro dipende da vari fattori. Prima di scegliere quale metodo di sviluppo scegliere è bene considerare alcuni punti:

  • La quantità di tempo che si è disposti a investire su di un progetto
  • La quantità di soldi che si possono/vogliono investire sullo stesso
  • L’unicità del progetto ed il suo grado di flessibilità
  • Il target al quale il progetto è destinato
  • Il grado di sicurezza di cui si necessita

 

Sicuramente per il blog personale che non necessita di troppe visite o anche di un semplice negozio sotto casa l’utilizzo di un CMS può rappresentare una scelta oculata, laddove, nel caso ci si affidi ad un azienda o a un professionista, i costi non siano troppo elevati.
Se il progetto riguarda invece un progetto web che deve interagire con i clienti, presentare prodotti e come target si designi traguardi elevati è meglio iniziare subito con un Frameworks ( meglio se .net) onde evitare poi di dover ricominciare tutto da capo.
Ricordiamo, infine, che pochissimi degli utenti che accederanno ad un sito web sono in grado di capire con quale tecnologia sia stato sviluppato, ma prestano più attenzione alla fruibilità del sito, ai contenuti e a quanto sia conforme alle sue necessità.

 

 

 

1 Per una spiegazione di cosa sia un frameworks si consiglia di leggere il precedente articolo “Php o .Net? Facciamo Chiarezza”

2 Il template nel web è un modello usato per separare il contenuto dalla presentazione grafica, e per la produzione in massa di pagine Web.
3 Con il termine plug-in, in questo caso, ci si riferisce a programma non autonomo che interagisce con un altro programma per ampliarne o estenderne le funzionalità originarie.
4 Nella programmazione informatica il debug è l'attività di ricerca e correzione degli errori (bug) in un programma.
5 Letteralmente “sorgente aperta”, indica un software il cui codice sorgente è rilasciato con una licenza che lo rende modificabile o migliorabile da parte di chiunque.
6 Salesforce è la più importante piattaforma per la gestione delle relazioni con i clienti (CRM)

Vivere senza wikipedia

Il 25 marzo 2019 gli utenti che accedevano alle pagine della nota enciclopedia online wikipedia hanno avuto la triste sorpresa di trovarsi la pagina autosospesa per protesta contro la legge che si stava varando in nel parlamento europeo riguardo il diritto di copywrite.
Di Wikipedia e di come, a volte, le informazioni esposte non siano sempre affidabili ne ho già parlato in un mio precedente post e non voglio tornarvi sopra, così come non voglio trattare della nuova normativa europea sul copywrite; quello che voglio evidenziare in questo mio post è invece come sia possibile (a volte anche augurabile) approfondire le ricerche online baypassando wikipedia.
I motori di ricerca, tra i vari requisiti che permettono un buon posizionamento nelle ricerche, considerano anche la popolarità di un sito e quanto il contenuto di questo sia affine alle parole ricercate dall'utente. In base a questi criteri Wikipedia compare sempre tra i primi posti (se non addirittura per primo) e l'utente medio, in generale, non cerca più fonti di informazione, ma si limita al primo (al massimo al secondo) risultato che trova. In questo modo Wikipedia guadagna sempre più posizioni ed è diventata il punto di riferimento per "sapere" qualcosa. Secondo i dati Semrush wikipedia è il sito che in Italia riceve il maggior numero di visite da Google
Il 25 marzo, però gli utenti hanno dovuto arrangiarsi come ai tempri pre-wikipedia. Nulla di grave, s'intende, il disguido è stato momentaneo, ma molti utenti hanno riscoperto la rete per le ricerche. 
D'altronde molti geek già lo facevano: se si voleva avere delle informazioni su di un film meglio andare su mymovie.it che offre un database molto fornito oltre che diverse recensioni e critiche; se si vuole sapere qualcosa di matematica cosa c'è di meglio di youmath.it?
Ed in effetti se volessimo fare una prova e confrontare il risultato della ricerca per la parola "numero complesso" tra wikipedia e youmath scopriremmo che la spiegazione di quest'ultimo (sebbene più lunga) è molto più chiara e comprensibile.
Ci siamo accorti che con il passare del tempo Wikipedia tende ad essere sempre più ingombrante, diventando sempre più spesso l'unico mezzo per ricercare informazioni online e che disincentiva l'utente alla ricerca di altre fonti.
Ma il variare delle fonti anche per sedare una piccola curiosità o una trascurabile lacuna, è diventato un obbligo.
Certo molti utenti si saranno trovati spaesati, persi, impauriti senza una risposta manicheistica immediata che illumina la loro curiosità velocemente quasi che un possibile horror digitale si sia insinuato nella loro vita e, magari, hanno rinunciato alla loro ricerca aspettando che il "doomsday" wikipediano passasse.
La verità, invece, è che senza l'enciclopedia libera e collaborativa si può vivere bene, anzi ci si può informare meglio e magari confrontarsi con i nostri interlocutori portando più punti di vista di uno stesso argomento.
Certo il 1492 rimane per tutti l'anno della scoperta dell'America e dell'unificazione spagnola, ma la quantità e la qualità di come quest'informazione viene data fa la differenza, un po' come leggere una rivista di storia o un saggio di storia sullo stesso argomento.

Possibili trend per il web nel 2019

Come l’anno passato eccovi alcune considerazioni su possibili web trend nel 2019. Secondo diversi siti specialistici ci aspettano altri 12 mesi all’insegna del minimalismo e del design flat, mentre sempre più spazio lo avranno gli elementi multimediali. In pratica sembra che il 2019 confermerà le tendenze del 2018 con qualche piccola-grande novità.

Mobile first

Come più volte ripetuto negli ultimi anni, l’utilizzo dei dispositivi mobili che hanno superato i pc impone che nella realizzazione di un sito web si pensi prima alla versione mobile e poi a tutto il resto. Il 2019, però, vedrà l’abbandono delle versioni “m.” di un sito dalle funzionalità limitate, dando risalto ai design responsitive che garantiscono la medesima esperienza su qualsiasi tipo di dispositivo.

 

Velocità

In realtà la velocità dovrebbe essere il principio di base delle pagine web con un buon design: gli utenti tendono ad abbandonare un sito se non viene caricato completamente entro tre secondi, mentre fino a pochi anni fa il tempo di caricamento medio richiesto era di 5 secondi.

Da luglio del 2018 d’altronde Google, tramite il Google Speed Update, ha dato alla velocità un peso sempre più importante nel posizionamento del sito. Nella progettazione si considera quindi la necessità che prima avvenga la riproduzione dei contenuti “above the fold” (ovvero quei componenti del sito web visibili all’osservatore senza che sia necessario scorrere con il mouse) mentre il caricamento dei contenuti “below the fold” può avvenire successivamente.

Per quanto riguarda le immagini vengono salvate con il JPG progressivo in modo che il caricamento avvenga in maniera più uniforme. I giorni delle foto gigantesche, dei video non compressi e dei Javascript gonfi sono finiti!

Questo non vuol dire che le immagini e i video di grandi dimensioni non sono stati rimossi dal web design, ma verranno incorporati in modo tale da non rallentare i tempi di caricamento.

 

Minimalismo e Flat design

Rimangono invariati il minimalismo ed il flat design (che aiutano anche il caricamento della pagina) come trend per la grafica fino a sfiorare il “Brutalist design”, che non vuol indicare un design brutto ma si rifà al concetto architettonico di “béton brut”, dove l’attenzione dell’utente non viene sviata a elementi decorativi ma si concentra sul contenuto del messaggio.

I maggiori motori di ricerca, d’altronde, stanno dando sempre più importanza ai contenuti di un sito valutando anche il rapporto tra peso della pagina e testo.

Nonostante sia minimalista, questo non significa che il flat design sia noioso, ma a contrasto degli elementi verranno preferiti colori vivaci e illustrazioni con immagini semplici ed i caratteri sans-serif, la cui somma delle parti si unisce per offrire un'esperienza utente eccellente, accattivante e coinvolgente.

 

Asimmetrie e geometrie

Una nota di novità arriva dalle griglie asimmetriche: quando parliamo di griglie asimmetriche (o spezzate) e di layout asimmetrici, pensiamo subito al sistema a griglia che è stato utilizzato per decenni su tutti i tipi di layout, che aiuta il progettista a mantenere facilmente allineamento e coerenza quando aggiunge un contenuto. Storicamente, non usare una griglia ha portato a ciò che molti hanno definito design sciatti o fastidiosi che impedivano all'utente di concentrarsi sulle parti più importanti della pagina; questo era dovuto principalmente al fatto che non esistevano strumenti adatti per poter abbandonare questo tipo di layout. Tuttavia, l'asimmetria e le griglie spezzate stanno guadagnando sempre più popolarità, probabilmente a causa del fatto di aver trovato un modo per non apparire come la maggior parte dei progetti di altri siti web, mentre allo stesso tempo non sono distratti o sciatti.

Grazie all’uso sapiente dei CSS si possono creare contenuti con asimmetrie che non appaiono come la maggior parte dei progetti di altri siti web, mentre allo stesso tempo non distraggono gli utenti e non sembrano sciatti.

Nel caos controllato che nasce dalle asimmetrie trova spazio l’uso delle forme geometriche, le stesse forme geometriche basilari che si studiano a scuola come quadrati, cerchi e triangoli, il tutto disegnato facendo uso di forme vettoriali e non bitmap. Queste forme geometriche vanno ad occupare lo spazio lasciato dall’asimmetria delle griglie (la loro simmetrie aiuta a bilanciare l’asimmetria creata) e possono essere usate nel contempo per aiutare l’utente del sito nella navigazione e ad attirare l’attenzione su alcune parti che vogliamo evidenziare.

 

Mini video ed animazioni

Se fino al 2018 nelle landing page o nelle home page si tendeva a mettere uno slideshow, il 2019 potrebbe vedere (grazie all’uso dell’HTML5) sostituite le immagini da piccoli video. In realtà, per non appesantire la pagina, si cercherà di creare dei minivideo che sono dei loop; quando un utente arriva su di un sito e un video viene riprodotto in background, è probabile che resti a guardarlo perché i video attirano l'attenzione. Più un utente rimane su di un sito, maggiori sono le probabilità di conversione. Questo, a sua volta, aumenta il tuo tempo sulla metrica del sito, e più alto è il tempo medio sul sito, migliore è punteggio SEO.

Una sottile ma evidente tendenza del 2019 nel web design saranno anche le micro-animazioni che sono un modo potente per offrire un'esperienza intuitiva e soddisfacente per l’utente mentre naviga in un sito web. Ciò avviene attraverso queste piccole animazioni che aiutano l'utente a capire il sito e a convalidarlo quando si passa il mouse sopra o su un elemento, come cambiare il colore di un pulsante quando il cursore si sposta su di esso o un menu che si espande quando fa clic sul Hamburger, lo scorrimento della pagina, eccetera.

 

Chatboot

Una novità che prenderà sempre più piede nei siti che necessitano dell’interazione con l’utente (agenzie assicurative, immobiliari, siti di servizi, ecc.) sono i Chatboot.

Negli ultimi anni, interagire e comunicare con i robot è diventato sempre più normale e chatbot (o robot) stanno diventando sempre più comuni sui siti Web e sulle microinterazioni: molto probabilmente, l’ultima volta che si ha interagito via chat con un nostro gestore la maggior parte della conversazione è stata tenuta da un chatbot in attesa che un operatore fosse libero.

Ad aiutare lo sviluppatore nella creazione di chatboot vi sono diversi frameworks tra i quali segnaliamo Microsoft bot framework, Wit.ai, API.ai, and Aspect CXP-NLU.

 

 

Conclusioni

Il 2019 si prospetta un anno che vedrà una linea di demarcazione pur nel segno della continuità: se nel design vi saranno pochi cambiamenti nell’utilizzo delle varie tecnologie i cambiamenti saranno però importanti nel lato della programmazione, dai chatboot ai video, dall’uso sempre più impattante dell’HTML5 e dei frameworks alla razionalizzazione degli script.

Questo non vuol dire che bisogna cambiare completamente un sito web che magari è appena stato fatto, ma di non lavorare su progetti che nascono già vecchi.

Whatsapp non deve essere l'alternativa ai classici SMS

La notizia che dal 2019  Whatsapp (che conta 1,5 miliardi di utenti) smetterà di funzionare su alcuni dispositivi, insieme a quella che Google (tramite la propria app CHAT) ha intenzione di sostituire ai classici SMS  mi porta a fare alcune riflessioni.

Cosa sono gli SMS
Iniziamo subito con il chiarire la differenza tra i classici SMS e i programmi di Istant Messanging.
I classici SMS sono un servizio che  utilizza un protocollo riconosciuto da oltre 160 paesi che permette di scambiare brevi messaggi di testo (160 caratteri da 7 bit equivalenti a 140 byte: 1120bit di messaggio più le informazioni aggiuntive) tra gli utenti di telefoni mobili.
Il servizio di messaggistica breve sui telefoni cellulari nasce agli inizi degli anni ’90 sulla rete GSM ed è poi stato esteso sia sulle reti UMTS che quelle 3G, 4G e 5G. Tramite questo sistema di scambio dati un utente che ha uno smartphone di ultimissima generazione che si trova in Italia può tranquillamente mandare un messaggio di testo ad un utente che ha un telefono GSM vecchio di 20 anni che si trova in Congo, con la certezza che questi lo riceverà, indipendentemente da quale gestore usiamo: un messaggio sms, quando viene inviato, utilizza sei diversi tipi di protocolli, chiamati Protocol Data Unit (PDU)1; tralasciando la spiegazione tecnica di cosa serve ogni protocollo diciamo che, tramite questi protocolli, si può avere la certezza che un sms sia stato recapitato o meno.
Ultima nota tecnica: un sms può essere inviato al centro messaggi2 che provvede a smistarlo tramite vari dispositivi; oltre al telefono cellulare, infatti, posso inviare messaggi tramite modem dialup, dispositivi DMTF ( ad esempio telefono a tono), tramite internet.
Ci sono due modi di inviare sms, il primo è il classico Point to Point dove un messaggio viene inviato da un utente ad un altro, il secondo, chiamato Cell Broadcast, permette di inviare un messaggio a tutti i dispositivi collegati ad una determinata cella. Questo metodo è  usato soprattutto dalle agenzie governative per allertare le persone di eventuali pericoli o altro come nel caso del ”PenforCec” (Proximity Emergency Network for Common European Communication) dell’Unione Europea nato con lo scopo di avvisare i cittadini di un attentato nella zona dove si trovano.

Cosa sono i programmi di Istand messaging
I programmi di instant messaging nascono anche loro negli anni ’90 del secolo scorso; il primo programma (che è ancora funzionante) si chiamava ICQ e, installato su di un computer, permetteva di ricevere messaggi in tempo reale e di scambiare foto e informazioni; con l’avvento degli smartphone questi programmi hanno preso il nome di APP e hanno iniziato ad evolversi offrendo più funzionalità, ma il principio di funzionamento è sempre lo stesso: tramite una connessione ad internet posso inviare una sequenza di byte ad un altro utente che utilizza il medesimo programma.

Differeneze, sicurezza e altro
Vediamo subito che mentre il primo è un servizio che usa un protocollo standard il secondo è un programma di una azienda privata che per funzionare tra due o più utenti necessita che entrambi abbiano lo stesso programma installato. Inoltre può succedere, come nel caso di whatsapp che se l’azienda decide che un sistema o un tipo di telefono non possa più usare quel programma nulla può fare l’utente per impedirlo, proprio come accadrà dal 2019 quando molti telefoni antecedenti il 2011 e che usano android 2.3.7 (ovvero Gingerbread) non potranno più usare Whatsapp, così come gli Iphone dotati di IOS7 ( ad esempio iphone4 non aggiornati) e moltissimi altri telefoni come quelli che Windowsphone 8.0.
Nel mercato degli Istant messaging sono due i programmi che detengono il primato: Messagner e Whatsapp, entrambi appartengono a Facebook.
In particolare Messanger è utilizzato soprattutto in Nord America, Australia, Francia, in alcuni paesi dell’Europa dell’est, Nord Africa, nel resto del mondo il più usato è Whatsapp ad eccezione della Cina dove è più usato wechat.

Da un punto di vista della sicurezza vediamo subito che essendo il primo (SMS) un servizio ed il secondo (IM) un programma molto spesso si preferisce utilizzare gli SMS per comunicazioni importanti e che richiedono un livello di sicurezza più elevato: le banche, per inviare i codici di accesso preferiscono usare gli SMS anziché un programma di istant messaging, così come alcuni uffici come ad esempio l’INPS per inviare la seconda parte del PIN personale preferisce un SMS o un messaggio in e-mail.
Malgrado le conversazioni di whatsapp siano crittografate ricordiamo che questo rimane pur sempre un programma (o app dir si voglia) e come tale può essere hakerato; nel 2017 un exploit permetteva di conoscere se un utente era attivo o meno o se avesse ricevuto i messaggi, lo stato dell’ultimo accesso, eccetera, malgrado nel profilo le impostazioni fossero impostate per lasciare nascoste queste informazioni.
Inoltre ci sono alcuni tools e tips online che tramite Kali OS (una distribuzione di Linux  pensata per effettuare penetration test) che permettono di hakerare un account).
Whatsapp, inoltre non ci può garantire per sempre l’utilizzo che l’azienda Facebook farà dei nosti dati in futuro; nei termini della d’utilizzo si legge:
WhatsApp è una delle aziende di Facebook. WhatsApp lavora e condivide informazioni con le altre aziende di Facebook per ricevere servizi quali infrastrutture, tecnologie e sistemi che ci consentono di offrire e migliorare WhatsApp e continuare a mantenere WhatsApp e le aziende di Facebook sicure e protette.”
Ed ancora:
Oggi, Facebook non usa le informazioni del tuo account WhatsApp per migliorare le tue esperienze con i prodotti di Facebook o per fornirti esperienze pubblicitarie Facebook più pertinenti su Facebook”.
In questo caso la parola che deve preoccupare è “oggi”, in quando se “domani” l’azienda decide di cambiare e di utilizzare i dati l’utente si trova davanti ad una scelta: accettare di vedere utilizzati i propri dati personali ad un simile scopo e continuare ad utilizzare il programma oppure rifiutare e non utilizzare più il programma.
Anche se lasciassimo il programma non avremmo mai la certezza che i nostri dati vengano effettivamente cancellati perché, come si legge sulla pagina ufficiale di Whatsapp: 
…la copia di alcuni materiali (ad esempio, i file di log e il registro chiamate) potrebbe rimanere nel nostro database, ma non è associata a identificatori personali. Per motivi legali (quali, gestione delle frodi e di altre attività illegali), potremmo conservare le tue informazioni..
Naturalmente l’utilizzo che un azienda fa o farà dei nostri dati non riguarda solo whatsapp ma tutti programmi.

Sfatiamo adesso uno dei luoghi comuni più famosi sulla differenza tra un sms e un messaggio via IM, ovvero che gli sms li pago mentre un messaggio di instant messaging è gratis. L’affermazione più giusta sarebbe che un IM mi cosa meno di un equivalente SMS, ma in entrambi i casi li pago. Quanto? Dipende dal profilo contrattuale che ho con il mio gestore e dall’uso che faccio dei dati.
Molte compagnie di telefonia mobile offrono, ad un costo fisso, un pacchetto che comprende minuti di conversazione, SMS e dati; al superamento della soglia, tutto quello che eccede il traffico fissato viene pagato a parte, così se supero il numero di minuti o di sms che posso usare gli altri li pago. Lo stesso vale anche per il traffico internet.
Un IM utilizza i dati e se mi limito a inviare solo un messaggio di  testo di 160 caratteri sono più o meno l’equivalente di 140byte, come un SMS e avendo un profilo che mi consentisse anche solamente 2Gb  mensili il numero di IM che mando sarà sempre nettamente superiore agli SMS disponibili (a meno che non abbia sms illimitati!)
Tramite IM non ci si limita a inviare solamente testo ma il più delle volte si inviano informazioni multimediali quali foto, video e messaggi audio che hanno un peso decisamente superiore.
Questo erroneo modo di confrontare SMS e IM nasce dal fatto che pochi sanno quantificare il peso di 1k.
Porto un esempio che mi è capitato pochi giorni fa : una mia conoscente  voleva inviare, tramite whatsapp, due video che aveva registrato in full HD. I video erano di pochi minuti ma il peso totale era di circa 780Mb, il profilo della signora prevedeva 2GB3 al mese di dati il che equivaleva a circa 1/3 dei dati che aveva a disposizione.  
In pratica non è vero che gli IM sono gratis, solo non è facile quantificarne il costo viste le variabili che entrano in gioco.

Conclusioni
Per quanto l’utilizzo di IM sia molto forte e negli ultimi 2 anni abbiano superato quello degli SMS tradizionali non è assolutamente possibile comparare le due cose. Nel primo caso, mi ripeto, si tratta di un servizio che utilizza una serie di protocolli, mentre nel secondo di programmi fatti da aziende private che possono, come si suol dire, decidere il bello ed il cattivo tempo.
Gli SMS sono e rimangono un sistema sicuro, veloce e funzionale che permette di scambiare messaggi con ogni persona dotata di un telefono cellulare o un dispositivo in grado di supportare questo protocollo.
Aspettiamo di vedere se l’idea di Google di creare un nuovo protocollo di comunicazione denominato Rich Communication System (RCS), una sorta di Sms 2.0, per mezzo del quale si potranno spedire e ricevere foto, video, Gif animate o perfino allegati sia una cosa che riuscirà a svilupparsi o meno, ma fino ad allora il servizio SMS non deve morire o essere sostituito da programmi di IM.

1  Tipo PDU Direzione Funzione 
SMS-DELIVER SMSC => Telefono Invia un messaggio breve 
SMS-DELIVER-REPORT Telefono => SMSC Invia il motivo di una mancata ricezione del messaggio 
SMS-SUBMIT Telefono => SMSC Invia un messaggio breve 
SMS-SUBMIT-REPORT SMSC => Telefono Invia il motivo di una mancata ricezione del messaggio 
SMS-STATUS-REPORT SMSC => Telefono Invia lo stato di un messaggio 
SMS-COMMAND Telefono => SMSC Invia un comando
Il compito principale di SMS-DELIVER e di SMS-SUBMIT è quello di recapitare i dati del messaggio e le informazioni ad esso associate alle entità SMS, che sono il telefono GSM e l'SMSC.
L'SMS-DELIVER-REPORT e l'SMS-SUBMIT-REPORT servono per notificare alle entità SMS che il messaggio non è stato ricevuto in modo corretto e che è necessaria una ritrasmissione dello stesso.
L'SMS-STATUS-REPORT contiene informazioni sullo stato del messaggio: se è stato recapitato o meno dall'entità ricevente e quando è stato recapitato.
L'SMS-COMMAND contiene i comandi che devono essere associati ad un messaggio già inoltrato mediante SMS-SUBMIT.
2 L' SMSC , ovvero il Centro Servizio Messaggi, è una macchina di tipo Store & Forward (Memorizza ed invia), che accetta messaggi da diverse fonti (modem, altri terminali digitali, altri SMSC, internet) e li mantiene in memoria fino a quando non riesce a recapitarli ai terminali mobili digitali riceventi. Il tempo massimo in cui i messaggi verranno tenuti in memoria, se l'SMSC non è in grado di recapitarli immediatamente (perchè il terminale è spento o perchè e fuori campo), dipende dal gestore di rete, ma può anche essere preprogrammato come uno speciale parametro al momento dell'invio del messaggio stesso, ed inoltre può assumere valori da 1 ora fino a qualche settimana. Trascorso tale limite i messaggi vengono automaticamente rimossi dall'SMSC e non verranno più recapitati al terminale mobile.
Ogni network digitale ha in genere uno o più SMSC; ad ogni SMSC corrisponde un numero telefonico, che programmato sul telefono GSM, consente di inviare messaggi
3  Nel 1998 è stata decisa dal SMI la differenza tra GB e Gb. La maggior parte dei computer e dei sistemi operativi opera con una logica binaria e quindi moltiplicare per 1.024 (pari a 2 elevato alla decima ) invece che per 1.000 semplifica notevolmente il calcolo ai computers.
Il gigabyte “decimale” equivale a 1.000.000.000 byte (1 miliardo di byte). L’equivalenza tra gigabyte “decimale” e byte è ottenuta all’interno di un sistema decimale, in cui il gigabyte è visto calcolato come potenza di 10. E’ usato nelle telecomunicazioni, nell’ingegneria e dai produttori dei dischi fissi ed esterni per indicare le specifiche tecniche delle loro apparecchiature;
Il gigabyte “informatico” o “binario” equivale a 1.073.741.824 byte. In realtà più correttamente dovrebbe essere chiamato gibigyte (GiB o GB) l’equivalenza tra gigabyte “informatico” (più correttamente gibibyte Gb) e byte è ottenuta all’interno di un sistema binario, in cui il gigabyte è calcolato come potenza di 2.

Quando l'antivirus non basta

quando-l-antivirus-non-basta-piu

Tutti hanno sentito parlare di virus informatici e tutti coloro che hanno un dispositivo informatico sia esso un personal computer, un table od uno smartphone hanno un antivirus più o meno valido che gli fornisce sicurezza; con il tempo parlare di virus è diventato sinonimo di qualunque tipo di infezione informatica, mentre in realtà ci si riferisce a un programma, una macro o uno script progettato e realizzato per causare danni all’interno del dispositivo infettato.
Questa errata percezione di cosa sia esattamente un virus ha portato gli utenti ad avere un falso senso di sicurezza che si genera con l’installazione di un antivirus ed a pensare che sia sufficiente per essere al sicuro da ogni eventuale danno.

Un po’ di storia.
La storia dei virus informatici è costellata di aneddoti e leggende metropolitane più o meno vere, ma di certo c’è che l’idea di programmi autoreplicanti, in realtà, risale al 1949 quando John von Neumann (considerato da molti il padre dei computer) ipotizzò degli automi capaci di auto-replicare il proprio codice.
Nel 1971 Bob Thomas creò Creeper, un codice capace di auto-replicarsi e di diffondersi ad altri computer presenti sulla rete. In realtà Thomas non voleva creare quello che poi divenne il primo codice malevolo della storia, ma dimostrare la possibilità di passare un programma da un computer ad un altro; Creeper infatti non si auto-replicava ma “saltava” da un computer ad un altro, cancellando la copia precedente.
Contemporaneamente a Creeper venne scritto Repear, che si spostava nella rete allo stesso modo di Creeper ma il cui scopo era di catturare e cancellare il primo.
Il primo virus informatico che si conosce porta il nome di Elk Cloner e funzionava sul sistema operativo del computer Apple II. Era il 1982. Il virus non era di per sé molto pericoloso ma solamente fastidioso in quanto dopo il cinquantesimo riavvio del computer faceva comparire una scritta sul monitor.
Il programma (in quanto di programma si trattava) si autoinstallava nel settore di boot di un floppy disck; quando veniva inserito nel computer il virus si autoinstallava nel settore di boot dell’hard disk, per poi installarsi nuovamente nel settore di boot di un floppy disk non infetto nel momento che questo veniva inserito nel lettore.
Nel 1986 arriva Brain,  è il primo virus di "massa" per DOS di cui si conoscono gli autori (da due fratelli pakistani che intendevano punire i turisti che acquistavano software pirata) in quanto nel codice viene riportato il loro nome, indirizzo e numero telefonico.
È, invece, del 1988 il primo virus che si diffuse tramite internet creato da uno studente del MIT (Robert Morris) che creò un virus che si auto-replicava in memoria fino a portare al collasso del sistema.
Dagli anni ’90 in poi la diffusione dei virus si propagò parimenti con la diffusione dei personal computer, così come la comparsa e l’utilizzo sempre più intensivo degli antivirus.

Tipi di virus
Abbiamo visto che nella storia dei virus si siano sviluppati diversi tipi di codice che si propagano in maniera diversa. Altrettanto vario è il tipo di “danno” che il virus porta al computer o all’utente.
Anche se può sembrare inutile, sapere che tipo di virus può colpire il computer è importante in quanto può aiutare l’utente ad evitare un comportamento pericoloso da un punto di vista della sicurezza informatica.
Il primo tipo di codice pericoloso che andiamo a spiegare è quello che viene comunemente chiamato “virus”: si tratta di un programma del tipo eseguibile che si installa automaticamente o a seguito di un’azione da parte dell’utente e necessita di un host o di un sistema già infetto. Questo tipo di codice malevolo non rappresenta più un pericolo come in passato in quanto gli antivirus sono in grado di riconoscerlo e bloccarlo quasi all’istante, così come anche molti sistemi operativi.
I “worms” (letteralmente vermi) sono dei programmi che si propagano nella rete e si auto-replicano, come il programma Creeper del 1971.
Tra i worms distinguiamo i “trojan”, dei programmi che, come il famoso cavallo di Troia dal quale prende il nome, prende il controllo del computer infetto senza che l’utente se ne renda conto, riuscendo a rubare i dati o a compiere azioni illegali da e verso quest’ultimo.  Uno dei più pericolosi tipi di trojan, comparso la prima volta nel 2013, si chiama CryptoLocker. 
Questi codici infettano un computer, quindi si auto-inviano ai contatti presenti nella rubrica come allegato “vestito” da documento di testo o da foglio di calcolo, ed in fine criptano tutti i files tramite un sistema simile al RSA e chiedono un riscatto (solitamente da pagare in Bitcoin) per poter riavere i files leggibili.
Meno pericolosi, ma comunque molto fastidiosi, sono gli “adware” che installandosi nel computer host mandano pubblicità al browser dell’utente mentre naviga e raccoglie informazioni sulle sue preferenze.

Quando l’antivirus non basta.
Sebbene la maggior parte dei codici pericolosi vengono intercettati da un buon antivirus costantemente aggiornato è da notare che la diffusione dei virus è comunque sempre molto alta: il solo fatto che un dispositivo informatico sia dotato di un antivirus non lo mette automaticamente al sicuro: posso erigere tutte le mura che voglio attorno alla mia città ma se apro le porte al primo che bussa non hanno alcuna utilità.
Una ricerca CISCO del 2014 mostrava come il comportamento dei dipendenti fosse il vero anello debole nella sicurezza informatica nelle aziende e stesse diventando una fonte crescente di rischio (soprattutto per noncuranza, ignoranza e presunzione piuttosto che per volontarietà); gli stessi comportamenti che la CISCO aveva identificato nella sua ricerca del 2014 possono essere portati al comportamento che gli utenti tengono anche fuori dall’ambito lavorativo.
Molte volte capita che mi chiedano come fare ad evitare certi comportamenti, ma mi accorgo che quello che manca è proprio la conoscenza di base di chi mi fa queste domande e che dopo poco che cerco di spiegare il perché ci si infetta mi zittiscono chiedendomi un metodo universale che, al pari di una panacea, li protegga.
Se siete arrivati a leggere l’articolo fino a questo punto presumo che apparteniate a quel 10% degli utenti che capiscono che non esiste una panacea universale ma che bisogna adattare il proprio comportamento a seconda delle circostanze.
Chiariamo subito che sicuramente ci sono azioni e comportamenti da evitare per non aver rischi ma non sono questi i casi che voglio trattare adesso.
La prima cosa da fare è sicuramente imparare a leggere gli URL dei siti web che si aprono e gli allegati di posta elettronica che si ricevono da destra verso sinistra e non da sinistra verso destra come da abitudine.
Un file è composto da un nome ed un’estensione che ne identifica la “famiglia di appartenenza”, ovvero mi dice se si tratta di un programma o di un file che deve essere aperto da un programma; l’estensione è la parte finale di un file (ed è preceduta da un punto), quindi se un file mi finisce con .PDF sicuramente sarà un documento di Acrobat Reader, mentre se finisce con .EXE si tratta di un eseguibile. 
Vediamo come questa informazione possa esserci utile per identificare un allegato dannoso in e-mail.
Supponiamo che riceviamo da un nostro contatto una mail con un allegato chiamato “invito alla festa.pdf.exe”; in questo caso il tipo di file, che quello di un eseguibile in quanto l’estensione è .EXE e non .PDF (che lo identificherebbe come un documento Acrobat Reader), mi dovrebbe far scattare un campanello di allarme dicendomi che si tratta di un virus.
Un altro dei comportamenti pericolosi che si tengono è quello di non prestare attenzione ai siti web che apro. Questo tipo di comportamento viene spesso deprecato ma è una delle principali cause di infezione o di sottrazione di dati personali e si verifica quando si apre una pagina web che in tutto e per tutto sembra un’altra.  Solitamente entriamo in questi siti in due modi: o tramite una mail che ci invita ad aprire un sito per confermare la nostra identità o per rinnovare un pagamento di un servizio scaduto oppure tramite un virus inserito nel nostro browser che ci reindirizza automaticamente a queste pagine.
Se arriviamo ad esempio in una pagina che sembra quella della nostra banca o del nostro social network preferito in tutto e per tutto e ci chiede di inserire i nostri dati personali per l’accesso o per confermare un pagamento è importante verificare che l’URL sia quello giusto.
Ad esempio un indirizzo web http://www.facebook.login.biz  che mi apre una pagina simile (o uguale) a quella del log in di Facebook non ha nulla a che fare con facebook in quanto il dominio è login.biz e non facebook.com
Anche in questo caso è infatti importante leggere il sito da destra a sinistra, quindi vediamo che .biz è il dominio di 1° livello, .login di secondo e .facebook di terzo livello, quindi in questo caso .facebook appartiene alla famiglia .login che appartiene alla famiglia .biz, mentre se vado sul sito ufficiale di facebook vedo che l’url è https://www.facebook.com/, quindi il dominio di primo livello è .com mentre quello di secondo livello è .facebook.
Difficile? Forse si, almeno all’inizio, ma anche per imparare a guidare devo imparare i segnali stradali, la segnaletica orizzontale, sapere quando dare la precedenza e quando no, anzi imparare a guidare è anche più complesso perché devo anche imparare a condurre un’auto. Allora perché dovremmo spaventarci per imparare le basi della sicurezza informatica online? Semplice pigrizia!

Bulbi di tulipano o vera opportunità?

bitcoin

Prima o poi doveva arrivare anche questo; gli scrittori di fantascienza li avevano sempre inseriti nei loro racconti chiamandole in vari modi e finalmente le criptovalute (o crittovaluta o criptomoneta)  sono arrivate!

Cosa sono le criptovalute?
Iniziamo con il dire che il valore che viene attribuito al denaro, oggi, è il frutto di una convenzione. Facciamo un esempio pratico: il costo di produzione di una moneta da 1 centesimo di euro è in realtà di 4.5 centesimi di euro (se consideriamo il prezzo di acquisto del rame e dell’acciaio necessari per produrlo), mentre per le monete dai 10 centesimi in su il valore nominale per produrli è inferiore.
Una banconota non è altro che un pezzo di carta così come una moneta non è altro che un insieme di leghe se possiamo usarle per ottenere in cambio dei beni è perché siamo tutti d’accordo sul valore che riconosciamo a quel pezzo di carta.
Allo stesso modo della valuta normale le cripto valute sono monete virtuali che gli utenti conservano in portafogli (sempre virtuali) e che possono scambiare tra di loro o spendere per comperare servizi e beni  dove sono accettate.

Chi garantisce le criptovalute?
Il denaro ha un valore che è variabile e questo dipende da molti fattori, riassumendo brevemente possiamo dire che il valore non sta tanto nel livello del suo valore rispetto alle altre monete ma nella capacità di mantenere un cambio stabile o in apprezzamento e questo dipende dalla performance del Paese, dalla fiducia che riscuote, dalla laboriosità dei suoi abitanti, dalla qualità delle sue istituzioni, ecc…
A questo punto c’è da chiedersi chi garantisce il valore delle criptovalute visto che sono create da uno o più computer che tramite un algoritmo definito mining e che, a differenza delle valute tradizionali, i Bitcoin sono completamente decentralizzati e la loro creazione (mining) non avviene per conto di un istituto centrale con funzioni di garanzia.
Chi accetta le criptovalute come pagamento o le usa per gli scambi ha fiducia in queste monete non tanto perché, appunto, vi sia dietro uno stato a garantirne il valore, ma per la tecnologia che è alla base: il blockchain.

Cos’è il Blockchain
La tecnologia che sta alla base delle criptovalute è molto semplice e si presta a moltissimi altri utilizzi.
L’idea di una catena simile ad un albero, dove ogni “foglia” rappresenta blocchi di dati e codici (detti hash), e nel quale ogni ramo si bipartisce rimanendo però matematicamente legato ai rami che genera risale all’inizio degli anni ’90 e prende il nome di “Albero di Merkle”. Con questo sistema, ogni volta che un ramo si sdoppia, è impossibile modificarlo senza andare a toccare gli altri rami che lo generano o che ne derivano.
Si vede subito che questa tecnologia è molto utile per tracciare una filiera come può essere quella della produzione di alimenti o prodotti, o per gestire il voto digitale per le elezioni (come è successo nelle elezioni del 2018 in Sierra Leone).

Dal Blockchain al Bitcoin
Nell’ottobre del 2008 sulla mailing list di metzdowd.com compare un articolo dal titolo molto indicativo: “ A Peer-toPeer Electronic Cash System”. In questo articolo, firmato da un certo Satoshi Nakamoto (nome sicuramente inventato), l’autore in solo nove pagine mescola formule matematiche e codici di programmazione e descrive come creare una moneta virtuale, chiamata “bitcoin”, che non ha alcuna esistenza nel mondo reale ed è generata da un sistema virtuoso dove gli utenti stessi ne garantiscono la sopravvivenza e lo sviluppo, senza l’intermediazione degli istituti finanziari o delle banche centrali.
Alla base del Bitcoin stanno due tecnologie nate con internet, il Peer to Peer e il Blockchain.

Come si genera un bitcoin?
Per capire come viene generato un bitcoin bisogna prima di tutto vedere come funziona lo scambio dei bitcoin stessi.
Supponiamo che l’utente Filippo che ha 2 bitcoin ne dia 1 a Pamela, a questo punto la  transizione deve essere registrata e comunicata a tutto il mondo. L’operazione viene criptata e trasmessa in tutta la rete bitcoin (con un principio simile a quello del Peer to Peer), dove persone definite “Minatori” hanno il compito di decodificarla e registrarla.
Le operazioni sono criptate e il minatore mette a disposizione uno o più computer con il compito di decodificare l’operazione. Il primo che la decodifica la aggiunge e la comunica alla rete che la conferma, quindi l’aggiunge al libro mastro delle transizioni di bitcoin che si allunga (il sistema del blockchain) e ne riceve in cambio dei bitcoin nuovi di zecca.
Il sistema è stato creato in modo tale che il numero massimo di bitcoin che verranno creati sia di 21.000.000, e che ogni 210.000 operazioni (circa ogni 4 anni a seconda del delle operazioni fatte) il numero di bitcoin creato venga dimezzato. Questo è già successo nel 2012 quando i bitcoin in pagamento sono passati da 50 a 25.
A complicare ulteriormente la situazione è l’algoritmo stesso dei bitcoin che ad ogni operazione aggiunge complessità nella decodifica in modo da allungare la vita della moneta, ma obbligando i minatori a dotarsi sempre di più di calcolatori potenti e numerosi; succede così che se all’inizio un minatore con un normalissimo computer di casa poteva guadagnare, oggi ha bisogno di una serie di computer che lavorano in parallelo e sempre di maggior energia elettrica.
Considerando che ad oggi per poter creare una piccola miniera che estrae Bitcoin, per avere utili decenti, siano richiesti circa 50Mw di potenza per le computer farms, non stupisce che il maggior numero di minatori sia presente li dove l’energia sia a prezzi più bassi come in Islanda o Cina, anche se quest’ultima sta imponendo severe limitazioni ai minatori.

Chi guadagna con i bitcoin?
Abbiamo visto che i primi a guadagnare con i Bitcoin sono i minatori, che però con il passare del tempo sono costretti a dotarsi di computer sempre più potenti e performanti mentre il numero di bitcoin viene dimezzato regolarmente, quindi il margine è destinato a diminuire.
I commercianti, che avrebbero dovuto avere un ruolo importante nella diffusione della moneta elettronica, sono una parte marginale della filiera, mentre stanno sorgendo le figure dei “cambia valute digitali” che convertono le criptomonete in soldi reali in campio di una piccola commissione (come succede con i cambia valuta nel mondo reale).
Malgrado le criptomonete non abbiano avuto un’accoglienza positiva presso i commercianti, ha invece suscitato l’entusiasmo dei traders i quali scommettono in borsa sul rialzo o ribasso dei bitcoin, trasformando la criptovaluta in uno strumento di investimento.
Rimane il fatto che è un investimento estremamente a rischio: nel 2015 per quasi tutto l’anno il valore dei Bitcoin rimase intorno a poche centinaia di dollari per poi risalire e superare la soglia dei 1.000 dollari nel gennaio del 2017 e sfiorare i 20.000 una settimana prima di Natale, per poi scendere ancora intorno ai 6.000 dollari a giugno del 2018.
Il pericolo è che, diventando “una riserva di valore” (ovvero un bene sul quale investire come l’oro o le azioni) ma senza valori economici sottostanti possa scoppiare una bolla speculativa come quella dei bulbi di tulipano nel ‘600 in Olanda.
I bitcoin hanno un impatto molto importante nelle operazioni illegali: vengono sempre più spesso usati nel dark web per comperare droga, armi o altre transizioni illegali nei canali ufficiali; stanno inoltre diventando il tipo di monta preferita dai pirati informatici che infettano i computer tramite i virus cryptoloker e chiedono il riscatto in bitcoin per poter sbloccare i dati.

Il problema energetico.
Alcuni siti ambientalisti stanno lanciando l’allarme sull’uso smodato di energia che l’estrazione di bitcoin richiede.
Visto che l’estrazione dei bitocoin si basa su una rete di computer e server che richiedono molta energia si è stimato che nel 2017 l’estrazione di questa criptomoneta abbia richiesto 31terawatora all’anno.
Questa richiesta di energia influisce anche sul territorio ed i suoi abitanti, come è successo nel bacino del Mid-Columbia (Usa) dove 5 grandi centrali idroelettriche fornivano elettricità a bassissimo costo alle contee circostante e rivendevano il surplus agli stati vicini. Grazie al prezzo dell’energia così basso e agli impianti di irrigazione gli agricoltori hanno potuto trasformare la zona in una delle più produttive del paese.
La disponibilità di energia a basso costo ha però portato molti minatori ad insediarsi nella zona ed impiantarvi le loro farms. La richiesta di energia è così aumentata, diminuendo quella esportata e creando disagi ai residenti che vedono le loro risorse “rubate” da aziende che non producono nulla.
A questi ultimi si devono aggiungere i minatori che creano in casa loro delle piccole servers farm che richiedono molta più energia di quella disponibile nelle normali abitazioni, creando blackout e surriscaldando i trasformatori che bruciano creando pericolosi incendi.
In realtà, a livello globale si stima che se anche l’attuale incidenza dei bitcoin dovesse centuplicare rappresenterebbe meno del 2% del consumo blobale di energia, il problema si verifica invece nelle zone dove verrebbero ad installarsi le miniere di bitcoin.

Come i tulipani olandedi, gioco della piramide o vera opportunità?
Quella che esplose nel 1637 è considerata dagli economisti la prima bolla speculativa della storia. Nella prima metà del ‘600 il commercio dei tulipani nei Paesi Bassi era tale che la domanda dei bulbi raggiunse un picco così alto che ogni singolo bulbo raggiunse prezzi enormi, tanto che nel 1635 se ne registrò la vendita di alcuni a ben 25.000 fiorini l’uno (più di una tonnellata di burro). Si iniziarono così a vendere anche bulbi che erano stati appena piantati o che sarebbero stati piantati, quelli che oggi chiamiamo future.
Nel 1637 i commercianti, vedendo che non era più possibile l’innalzamento dei prezzi iniziarono a vendere tutti i loro bulbi inondando il mercato e diminuendone il valore; accadde così che chi aveva contratti per acquistare bulbi a 10 o 100 volte il loro prezzo reale si ritrovò con in mano nulla e chi aveva bulbi pagati anche 10.000 fiorini si ritrovò con solamente dei bei fiori.
Oggi la paura di molti è che quella dei bitcoin sia una situazione simile a quella Olandese del ‘600 e quando la domanda inizierà a sciamare le criptovalute diventeranno solamente un mezzo per gli acquisti illegali nel darkweb perdendo il loro “valore nel mondo reale” e creando una bolla speculativa.
Altre critiche riguardano il sistema dei bitcoin nel loro insieme: Dick Kovacevich, ex AD di Wells Fargo (una delle quattro più grandi banche degli Stati Uniti) ha definito quella dei bitcoin come “solo uno schema piramidale”;  Davide Serra (fondatore di Algebris) invece twitta che: “Bitcoin è uno strumento per ripulire il denaro per criminali ed evasori fiscali che è stato trasformato nel più grande schema Ponzi di tutti i tempi con un valore di 160 miliardi di dollari (3 volte Madoff) e io sono stupefatto che non ci sia un solo regolatore che faccia qualcosa. Semplicemente incredibile”. 
In realtà quando acquisto un bitcoin non acquisto una promessa di futuri guadagni, ma una unità che si può utilizzare immediatamente.
Infine rimane il dubbio di sapere chi sia il famoso Satoshi Nakamoto e che non sia tutto un “imboglio” tanto che quando finiranno i 21.000.000 di bitcoin disponibili all’estrazione o quando si perderà interesse per l’estrazione stessa sia l’unico a guadagnarci.
Quello delle criptovalute riamane comunque un investimento ad alto rischio se non diventeranno utili per l’acquisto di beni di consumo, mentre di certo è solamente il fatto che la tecnologia che sta alla base delle criptovalute, il blockchain è una tecnologia che si presta a diversi utilizzi.

Quale futuro?
Possiamo terminare questa analisi dicendo che non è facile ipotizzare cosa potrebbe succedere con le criptovalute ed i bitcoin in particolare.
Uno dei primi scenari, il più tragico, ci porta a pensare che, come nel caso dei tulipani olandesi, sia una bolla speculativa destinata ad esplodere, ma se si pensa che la quantità di bitcoin è limitata difficilmente ci sarà una svalutazione a causa dell’eccesso dell’offerta, portando questa criptovalura ad avvicinarsi all’oro.
L’uso dei bitcoin e delle criptovalute, secondo uno scenario più positivo ma non incoraggiante, potrebbe anche crescere in quanto ha il vantaggio che è difficilmente rintracciabile e non è confiscabile; potrebbe diventare un tipo di investimento di nicchia, come era una volta il mettere i soldi in Svizzera.
Infine per considerare uno scenario ottimistico possiamo vedere in futuro le criptovalute affiancare il denaro normale per tutto quello riguarda le transizioni online, un po’ come è successo a suo tempo con il sistema Paypal che è andato ad affiancare le normali carte di credito, o i vari sistemi di money transfer che sono andati ad affiancare i sistemi di bonifico tramite posta o banca.

Servono regole non censure.

regole non censure

"Video killed the radio star" cantavano nel 1979 i "The Buggles", riferendosi al fatto che la televisione stava soppiantando gli altri media, in particolare la radio. Naturalmente, all'epoca, Trevor Horn e Geoffrey Downes non si immaginavano che anche la televisione sarebbe stata soppiantata da un nuovo media che ha rivoluzionato il concetto stesso di comunicazione: i social network!
Nel 2018 i servizi web più utilizzati sono stati: Google, Youtube, Facebook, Whatsapp, Messenger ed instagram. Questo vuol dire che due società (google e facebook) veicolano la maggior parte del traffico internet. 
Se guardiano statistiche delle 50 aziende più grandi del mondo per capitalizzazione di borsa vediamo che Alphabet (l'holding che comprende Google, Youtube ed altre controllate) e Facebook (a cui appartengono, oltre che all'omonimo social anche, i servizi Whatsapp, Messenger ed il social instagram) sono tra le prime 10; la domanda è: "cosa producono Google, Youtube, Facebook, Messanger, whathaspp ed instagram?"
Tralasciando che nella holding Alphabet fanno parte anche altre società che si occupano di ricerca e sviluppo, tra le quali il sistema operativo Android, la risposta per i singoli servizi citati è: pubblicità!
I ricavi dei maggiori servizi di internet sono dati dalla pubblicità, quindi dal numero di utenti che riescono a raggiungere. 
Fin qua non ci sarebbe nulla di preoccupante (la pubblicità è sempre esistita tanto che si trovano addirittura tracce di reclame anche su alcune mura dell'antica pompei) se non fosse che una ricerca del novembre 2016, firmata dalla Graduate School of Education dell'università di Stanford, in California (
https://purl.stanford.edu/fv751yt5934), ha dimostrato che i giovani, in particolare i millenials, che dovrebbero essere tra le generazioni digitalmente più smaliziate non sanno distinguere un contenuto comune da una pubblicità anche se vi è indicata la scritta "adv" o "Contenuto sponsorizzato", a meno che non sia presente il marchio di un brand conosciuto o un prezzo; sempre secondo questa ricerca credono che il primo risultato trovato con google sia il più autorevole ed il più affidabile ( mentre spesso è un contenuto sponsorizzato!), si lasciano attrarre dalle immagini.
In Italia oltre il 90% degli studenti tra i 15 ed i 24 anni sta online, ma di questi il 35% dichiara di avere competenze digitali di base, mentre il 33% di averle basse, il che vuol dire non che non sanno programmare ma che il 35% non sa nemmeno districarsi al di fuori delle procedure abituali.
Tornando per un momento ai social vediamo che facebook, nel mondo, ha circa 2 miliardi di utenti, dei quali il 66% usa il social network tutti i giorni, segue Youtube con 1,5 miliardi, seguono Whatsapp e messanger con poco più di un miliardo di utenti mensili e in fine instagram con circa 700 milioni.
Il 51% degli utenti di internet usa i social network per raggiungere le notizie, per lo più tramite cellulare; tra i giovani tra i 18 ed i 24 anni la rete è lo strumento preferito per accedere alle notizie, mentre la televisione viene al secondo posto (Reuters Institute, University of Oxford: http://www.digitalnewsreport.org/interactive/). 
Vediamo quindi che, da un lato, ci sono tra gli utenti quindi due grandi referenti per lo stare in rete e cercare notizie e sono Facebook e Google, due società che hanno i loro guadagni dalla pubblicità e dal maggior numero di utenti che riescono a raggiungere, mentre dall'altro abbiamo i ragazzi (e non) che, se difficilmente riescono a distinguere un contenuto sponsorizzato da un post, di certo faranno ancora più fatica a distinguere una notizia vera da una falsa.
I social network non hanno nessun interesse a verificare e controllare la qualità dell'informazione che viene veicolata. Nel settembre 2017, rispondendo alle accuse di Trump, secondo il quale il social network Facebook gli era contrario, Zuckemberg risponse :" Internet è il modo primario in cui i candidati hanno comunicato, dalle pagine facebook con migliaia di folowers, centinaia di milioni sono stati spesi per la pubblicità… I nostri dati dimostrano il nostro grande impatto sulla comunicazione"; quasi che il solo fatto che Facebook abbia un grande impatto sulla comunicazione ne giustifichi non solo l'esistenza ma anche il fatto che sai libero di fare quello che vuole.
"Da un grande potere derivano grandi responsabilità", questo si leggeva nella vignetta conclusiva di Spider-Man su Amazing Fantasy n.°15, e questo è quello che dovrebbe essere.
Purtroppo non sembra essere così con i social media: malgrado le assicurazioni che sono state fatte negli anni per arginare il problema poco è stato realmente fatto, e in un mercato dove la concorrenza è praticamente inesistente e non vi sono regole i social network possono fare quello che vogliono e, visto che sono società per azioni, il loro scopo è fare soldi.
Non è facile creare delle regole per poter gestire le informazioni in rete senza rischiare di limitare la libertà di informazione come, ad esempio, avviene in Cina dove molti siti e social sono costretti a sottostare alla censura dello stato o a non essere visibili. Bisogna costringere i gestori dei social media ad autogestirsi, verificare e controllare quello che viene pubblicato, pena il ricorso a delle sanzioni.
Una cosa simile è stata fatta per quando riguarda la pubblicazione di contenuti coperti da copyright, dove il gestore di un social è tenuto a controllare ed eventualmente cancellare il contenuto pubblicato quando questo violi un copyright.
Perché non è possibile allora farlo anche per tutti i post? 
Durante le elezioni presidenziali americane del 2016 centinai di siti diffondono quelle che vengono definite Fakenews che favoriscono l'elezione di Trump. La maggior parte di questi siti si trovavano in macedonia e non avevano nessun interesse al che vincesse un candidato anziché un altro ma, tramite google AdSense ( il sistema di google che permette di inserire spazi pubblicitari all'interno del proprio sito), sono arrivati a guadagnare fino a 5000 euro al mese!
Inutile dire che il colosso di Mountain View non controlla dove la sua pubblicità compare ma solo che compaia; dei proventi della pubblicità una piccola parte va al gestore del sito, una grande parte a Google.
Il gestore del sito ha quindi grande interesse che vi sia un gran numero di visitatori, maggiore è il numero di visitatore, maggiore la pubblicità che compare, maggiori i suoi introiti, così come per Google.
In Italia il sito di Buzzfeed nel 2016 ha pubblicato un'inchiesta giornalistica sulla disinformazione prodotta in Italia dal Movimento 5 Stelle e sui legami del partito di Beppe Grillo con diversi siti di news (https://www.buzzfeed.com/albertonardelli/italys-most-popular-political-party-is-leading-europe-in-fak?utm_term=.uhv695Bmk#.qkGP7kZry) , il risultato di questo tipo di informazione, insieme all'uso intensivo che i candidati hanno fatto di Facebook durante la campagna elettorale, come strumento di propaganda, ha influenzato le elezioni politiche del 2018.

Così come uno stato ha l'obbligo di tutelare la salute dei suoi cittadini, così anche nel settore della comunicazione online, in mancanza di una vera concorrenza nel settore che autoregoli la qualità dell'informazione come succede nell'editoria, nella radio e nella televisione, è lo stato, o meglio gli stati, che dovrebbero creare regole che, pur rispettando i dettami delle singole costituzioni, atte a tutelare i propri cittadini.
Anche le aziende, dal canto loro, dovrebbero iniziare a sensibilizzarsi su questo fenomeno così come gli utenti. Abbiamo iniziato a valorizzare i prodotti che vengono fatti senza sfruttare la manodopera nei paese in via di sviluppo, penalizzare le aziende che sfruttano i bambini per la confezione dei vestiti o delle tecnologie, perché non possiamo iniziare a segnalare quelle aziende che fanno comparire la loro pubblicità online sui siti che non lo meritano?
La soluzione, per poter arginare l'anarchia informativa che regna online passa quindi da due strade (visto che in tanti anni le aziende interessate non hanno fatto nulla per risolvere il problema): sanzioni da parte delle autorità direttamente proporzionale al numero di utenti che raggiunge un social network direttamente o indirettamente, e creazione di una coscienza sociale come per i prodotti ecosostenibili, ad impatto zero o che non sfruttano le popolazioni locali, magari con un certificato di qualità.

Passato presente e futuro dei social network

Passato-presente-e-futuro-dei-social-network.jpg

Pochi lo sanno ma il primo social network della storia è stato un sito del 1997 chiamato SixDegrees.com, che aveva come scopo quello di creare una rete di relazione tra le persone che avessero gli stessi interessi.
Naturalmente all’epoca non esisteva ancora il termine “social network”, che fu coniato solamente nel 2002 con la nascita dell’australiano  friendster, un sito con lo scopo di aiutare le persone a trovare nuovi amici, rimanere in contatto, condividere contenuti e media online,  darsi degli appuntamenti e scoprire nuovi eventi, band musicali. Gli utenti potevano anche condividere foto, messaggi e commentare i contenuti condivisi dei loro contatti. Il sito chiuse nel 2015.
Questo è l’inizio, nel mentre sono nati molti altri social tra i più famosi ricordiamo Facebook, Twitter, Vk, Instagram che attualmente risultano tra i siti più visitati al mondo (fonte Alexa.com).

Tra tutti i social network Facebook è sicuramente il più conosciuto ed il più nominato, insieme a twitter e instagram, ma come funzionano i social network?
Per prima cosa dobbiamo chiarire che il valore reale di un social network è nel numero di utenti attivi che questo mezzo riesce a veicolare giornalmente:  ogni utente che è attivo crea un’ interazione,  pubblica un post, mette un “LIKE”, condivide un contenuto; tutte queste azioni spesso vengono usate per identificare i gusti o le abitudini ed inviare una pubblicità mirata all’utente stesso. Questi dati vengono poi “venduti” ad altre società che a loro volta inviano pubblicità mirate. Allo stesso modo il social network riceve i dati di navigazione o ricerca dell’utente da altri siti e invia a quest’ultimo, nel momento dell’accesso o durante la navigazione, pubblicità mirata.
Il fatto che un social network abbia milioni di iscritti, quindi, non vuol dire che sia un social network che vale se questi iscritti non interagiscono quotidianamente tra di loro o sono account creati ad hoc per pubblicizzare un prodotto, influenzare un quesito referendario o un evento elettivo, come sembra sia avvenuto nel caso delle ultime elezioni americane o del referendum del regno unito sulla Brexit. 
In base a questo Twitter si è scoperto ad avere migliaia di account fasulli che sono stati rimossi.

Attualmente il mercato dei social network è diviso in diverse tipologie e può capitare che un utente sia iscritto a più social network a seconda delle interazioni che vuole avere.
Prendiamo ad esempio  Facebook e Twitter: il primo ha un rapporto 1 a 1, ovvero ogni utente è collegato con un altro utente in un rapporto di reciprocità, dove l’utente A per poter seguire l’utente B deve fare richiesta di amicizia e se accettata  non solo l’utente A segue l’utente B ma al contempo l’utente B inizierà a seguire l’utente A; Twitter, invece, lavora in maniera differente:  se l’utente A decide di seguire l’utente B è sufficiente premere il tasto FLOW e automaticamente verrà aggiornato su ogni tweet che l’utente B posta, senza la necessità che l’utente B a sua volta venda aggiornato sui post dell’utente A.
Quindi non è strano che un utente sia iscritto sia a Twitter che a Facebook, che sono due social network diversi perchè le interazioni che genera sono di tipo differente con risultati differenti.
Una caratteristica che invece accomuna tutti i social network è la mancanza di un evoluzione di stile: malgrado siano passati parecchi anni dalla loro entrata nel mercato se prendiamo ad esempio Facebook o Twitter notiamo che negli anni non hanno mai rivoluzionato la loro impaginazione grafica e presentano il profilo degli utenti tutto uguale, consentendo agli utenti finali solo piccole personalizzazioni. 
Anche se questo può sembrare una limitazione è uno dei tanti motivi che ha permesso a Facebook di affermarsi in una posizione di prestigio nel mondo dei social network: all’epoca dell’entrata di Facebook nel mondo del web era presente un altro grande social network Myspace che dominava la scena e che sembrava destinato ad un futuro radioso.  A differenza di Facebook, però, Myspace dava la possibilità agli utenti di personalizzare la loro pagina con inserimento di Tags HTML. L’idea era buona, in quanto ogni persona poteva liberamente crearsi veramente il proprio spazio senza tante difficoltà ( da qua il nome MYSPACE), sennonché molti utenti, spesso inesperti, iniziarono ad inserire contenuti che appesantivano la pagina e creavano un grande carico di dati in download a chi vi accedeva ed un enorme lavoro alla cpu del computer. In questo modo, piano piano, sempre più utenti abbandonarono Myspace in favore di social più snelli.

Nel rapporto trimestrale presentato a luglio 2018 dopo gli scandali di Cambridge Analytics,  Facebook ha evidenziato un calo nella crescita degli utenti ed una leggera flessione di utenti attivi in Europa, mentre negli Stati Uniti e in Canada, pur rimanendo inalterato il numero di utenti si rileva  un rallentamento della crescita degli utenti.
Che il mercato sia saturo? No, certo che no!
Un grande impatto sul calo della crescita è sicuramente dovuto all’utilizzo da parte del colosso di Menlo Park delle norme europee sulla privacy volute dalla UE dopo lo scandalo di Cambridge Analytics ed il giro di vite sulle fake news e i falsi profili. Ma non è tutto: sempre più giovani,di età compresa tra i 13 ed i 17 anni, lasciano Facebook  in favore di altri social, mentre altri utenti iniziano a riconsiderare il fatto che postare foto o eventi troppo personali possono avere una ricaduta nel mondo reale.
Per quel che riguarda i giovani, sicuramente la voglia di avere uno spazio virtuale dove i genitori non possono raggiungerli è importante in quanto se un genitore ha l’amicizia con il figlio/a su Facebook  sicuramente potrà vedere tutto quello che questi condivide lui o i post degli amici nei quali è taggato.
Per altre persone, invece, diventa complicato poter conciliare la vita privata online con la vita pubblica, in quanto condividere l’amicizia su di un social anche con i colleghi di lavoro o con il proprio capo vuol dire perdere una parte della propria privacy, mentre il non farlo potrebbe sembrare un atto di “maleducazione”, quindi meglio non avere un account o averlo ed utilizzarlo con moderazione.
Un social network che ha cercato di superare questo problema è stato Google+ che tramite l’utilizzo di “cerchie” permette di scegliere cosa condividere e con chi ma, essendo entrato tardi nel mondo dei social e con un layout non semplicissimo, non è mai riuscito ad imporsi ai livelli di Facebook o Twitter.

Un altro motivo che porterà sempre più utenti ad abbandonare i social network classici in favore di soluzioni alternative è l’uso intensivo che ne viene fatto da parte delle aziende che li utilizzano come strumento pubblicitario. 
Sebbene nessuno possa mettere in discussione il ruolo che i social network hanno avuto negli avvenimenti politici internazionali degli ultimi 10 anni partendo da piazza Maidan a Kiev( dove sono stati un ottimo strumento per l’organizzazione e l’aggregazione delle persone per protestare) fino alle Primavere Arabe (dove rappresentavano a volte l’unico mezzo per poter avere notizie), nell’ultimo periodo si è notato sempre più un uso aggressivo da parte delle società di marketing e dei cosiddetti influencer , per la promozione di prodotti e servizi.
Gli utenti fanno sempre più fatica a distinguere un post pubblicitario/promozionale da uno normale, soprattutto su Instagram e twitter dove il rapporto è 1 a molti ed il messaggio è raggiunto da un gran numero di persone. Per questo motivo l’Autorità Garante della Concorrenza e del Mercato ha raccomandato a VIP ed influencer l’uso dei cosiddetti “hashtag della trasparenza” (#adv e #ad).
Molto di più ha fatto la Federal Trade Commission americana che richiede (un obbligo quindi e non una raccomandazione) che all’inizio di ogni post sponsorizzato, che sia video, foto o testo, sia specificato l’hashtag #ad o #sponsored; dopo questo richiesta, negli Stati Uniti, Instagram è risultato essere il luogo ideale per i post a sfondo pubblicitario con ben il 50%, seguito da Twitter e Facebook.

Ma quali possibili futuri saranno quelli dei social network?
Diciamo subito che difficilmente si possono fare predizioni a riguardo, ma solo ipotesi.
Ipotizziamo quindi la nascita di social network che saranno a pagamento e offriranno più servizi e meno pubblicità.
Visto che stanno sempre più diventando la nostra identità digitale ed il diario delle nostre vite è facile immaginare la nascita di social network che raccoglieranno i nostri ricordi per sempre, come servizio aggiuntivo a pagamento.
Quindi, un possibile scenario è la creazione di social network di serie A e di serie B come è successo già per i siti di dating online.
Ci sarà un probabile “raggruppamento sociale” sul modello di quello di Google plus in modo da non avere una condivisione totale con tutti i nostri contatti ma mirata e selettiva a protezione della nostra privacy.
I social network del futuro saranno più snelli di quelli di adesso che cambiano lentamente e daranno più spazio alle sperimentazioni. Probabilmente ci sarà interscambio di dati degli account tra i diversi social, pur aumentando l’attenzione alla privacy degli utenti.
Graficamente saranno sempre più mobile-native e meno web-native fino a diventare applicazioni sviluppate prevalentemente per smartphone (come nel caso di Instagram).
Per finire ci saranno sempre meno contenuti testuali e sempre più immagini e tanti, tanti, video.

Concludendo possiamo dire che l’uomo è un animale sociale e come tale cerca sempre il contatto con i suoi pari, ma, qualunque sarà l’evoluzione dei social network, è importante ricordare che nessuna tecnologia può sostituire la sensazione che si prova quando qualcuno sente che stai parlando solo con lui.

Si fa presto a dire APP

All'inizio c'erano solo i programmi. Poi Jobs disse: "Sia app" ed app fu…
Iniziamo dicendo che fino all'avvento dei primi Iphone il concetto di app era strettamente legato a quello di programma: una app non era altro che un programma con un interfaccia grafica. Ecco, quindi, che Word, o Internet Explorer, Excell, ecc. sono applicazioni che vengono abbreviate in App, mentre in passato venivano comunemente chiamati programmi.
Con i primi smartphone nasce l'idea di creare "programmi" che si possano scaricare solo previa registrazione da un portale, li si possa installare solo tramite internet, ai quali viene dato il nome di App. Certo non bisogna pensare che il concetto di appstore sia necessariamente legato agli smartphone o che sia nato con essi: già Firefox (il noto browser) alle sue origini disponeva di uno store dal quale scaricare dei plugin per aggiungerne funzionalità.
Ma allora qual è la differenza tra un programma ed una app?
Iniziamo subito con il dire che mentre tutte le app sono programmi non necessariamente un programma deve essere una app: ci sono sempre dei programmi in esecuzione sullo sfondo di un sistema operativo, ma poiché non sono stati sviluppati per l'utente finale, non sono applicazioni (al massimo possono venir chiamati "task"). L'app, invece, è un programma rivolto all'utente per eseguire una particolare attività o una serie di attività come ad esempio un videogioco, un editor di testo, o l'elaborazione delle foto.
Quindi tutto quello che trovo su un appstore è in realtà un programma con un interfaccia grafica?
Non sempre!
Esistono, attualmente, tre differenti tipi di app:
• App native
• App Ibride
• Web App

Le app native sono apps sviluppate specificatamente per un determinato sistema tramite un linguaggio di programmazione specifico (Objective-C o Swift per I/OS, Java per Android, e .Net per windows). Questo vuol dire che una app sviluppata per I/os può girare solo su quel sistema, se voglio farla giare anche su Android devo farne una nuova. 
Il vantaggio principale delle app native è che offrono elevate prestazioni e garantiscono una buona esperienza di utilizzo per l'utente in quanto gli sviluppatori utilizzano l'interfaccia nativa del dispositivo, oltre ad offrire un accesso a un'ampia gamma di API e quindi più possibilità per l'app.
Il lato negativo è che obbliga lo sviluppatore ( o la società che lo sviluppa) a creare due o più versioni di una medesima app per non rimanere esclusi da una fetta di mercato.

Le app ibride sono invece sviluppate usando un mix di diverse tecnologie quali HTML5, Java script ( e relativi frameworks come angular, jquery, ecc.), CSS, ecc. . Sono praticamente una versione del sito web "travestito" da applicazione. Questo tipo di apps offrono una buona velocità, sono facili da sviluppare e non hanno la limitazione di dover creare diverse versioni per ogni sistema. Anche questo tipo di app offre diverse API da utilizzare come il giroscopio, l'utilizzo della posizione, della telecamera, ecc.
Naturalmente le apps ibride non hanno la velocità di una app nativa e possono creare problemi di visualizzazione su alcuni dispositivi (non è semplice creare un interfaccia che sia ottimizzata per tutte le risoluzioni esistenti!) per cui non sempre apparirà uguale ad esempio su un Iphone 5 o su un Asus Zen Phone.

Le web app, per finire, si possono definire come le versioni "responsitive" di un sito web.
Le app Web utilizzano un browser per l'esecuzione e sono generalmente scritte in HTML5, JavaScript o CSS e quando si installa questo tipo di app semplicemente si crea un segnalibro ad una pagina web.
Di norma, le applicazioni Web richiedono un minimo di memoria del dispositivo, tutti i database personali vengono salvati su un server remoto e gli utenti possono ottenere l'accesso da qualsiasi dispositivo ogni volta che è disponibile una connessione Internet.
Lo svantaggio principale per questo tipo di app è che una connessione scarsa comporterebbe un'esperienza utente negativa oltre che l'accesso a molte API per gli sviluppatori è limitata.

Quindi quando sento parlare di app è importante capire che tipo di app sto per installare, anche perché posso evitare esperienze negative nell'utilizzo del mio dispositivo, o un uso eccessivo dei dati, piuttosto che un uso illecito dei miei dati personali.
Detto ciò faccio notare che circa l'83% delle app usate dagli utenti sono app ibride.

MySQL o SQL Server?

Un database è un file che memorizza un insieme di dati. Vi sono nel mondo dell’informatica vari tipi di database ma i più usati sono di tipo “relazionale”, un particolare tipo di database in cui i diversi file separati vengono messi in relazione attraverso dei campi chiave e che per questo motivo vengono chiamati così.
 Nel mondo del web sono due i database più usati dei providers: MySql e SQLServer ed anche in questo settore il mondo degli sviluppatori è diviso tra diverse idee su quale sia il migliore.
Come nell’articolo precedente (Php o Net? Facciamo Chiarezza) vediamo di fare chiarezza tralasciando quelli che sono gli aspetti ideologici nell’affrontare la discussione e concentrandoci invece sugli aspetti pratici ed oggettivi.
 
Iniziamo subito col dire che SQL Server è leggermente più vecchio di MySQL: Microsoft SQL Server è stato introdotto nel 1989 mentre MySQL è stato introdotto nel 1995 come progetto open-source. Dal momento che entrambi sono in produzione da anni, entrambi hanno una solida posizione sul mercato, entrambi possono girare sia su piattaforme windows che Linux ( Si, avete letto bene Sql Server gira anche su linux: Link per le istruzioni), entrambe le piattaforme sono progettate per gestire progetti grandi e piccoli ad elevate prestazioni, ed hanno molti punti in comune che sono:
 
Scalabilità: entrambe le piattaforme consentono di scalare man mano che il progetto cresce. È possibile utilizzare entrambi per progetti di piccole dimensioni, tuttavia, se questi progetti crescono, sia Mysql che Sql Server offrono la possibilità di supportare milioni di transazioni al giorno.
Tabelle: entrambe le piattaforme utilizzano il modello di tabella del database relazionale standard per archiviare i dati in righe e colonne.
Chiavi: entrambe le piattaforme utilizzano chiavi primarie e esterne per stabilire relazioni tra tabelle.
Sintassi: la sintassi tra le due piattaforme di database è simile, sebbene vi siano alcune differenze minori tra le diverse istruzioni
Popolarità: entrambe le soluzioni sono molto popolari sul web.
 
Mentre le due piattaforme sono simili nell'interfaccia e nello standard di base dei database relazionali, sono due programmi molto diversi e che operano in modo diverso. La maggior parte delle differenze riguarda il modo in cui il lavoro viene svolto in background e non risulta visibile all’utente medio.
 
Natività: abbiamo detto che entrambe le soluzioni possono essere installate sia su piattaforme windows che linux, va però considerato che Mysql funziona meglio sotto linux se usato con Php, mentre Sql Server da il suo massimo su piattaforma Windows interfacciato con .Net.
Costo: Sql Server è generalmente costoso poiché necessita di licenze per il server che esegue il software, mentre MySQL è gratuito e open-source, ma si dovrà pagare per il supporto se se ne necessita e non si è in grado di risolvere il problema da soli.
Query Cancellation: una differenza importante tra MySQL e Sql Server è che MySQL non permette di cancellare una query a metà della sua esecuzione. Ciò significa che una volta che un comando inizia l'esecuzione su MySql, è meglio sperare che qualsiasi danno che potrebbe fare sia reversibile. SQL Server, invece, permette di annullare l'esecuzione della query a metà strada nel processo. 
Sicurezza: sebbene entrambi sono conformi all'EC2 Microsoft ha dotato Sql Server di funzionalità di sicurezza proprietarie all'avanguardia come  Microsoft Baseline Security Analyzer che  garantisce una solida sicurezza per SQL Server. Quindi, se la sicurezza è una delle maggiori priorità l’ago della bilancia pende decisamente verso Sql Server.
Supporto comunitario: su questo piano direi decisamente che Mysql (che è più usato al momento) essendo open source ha a disposizione una grande e varia comunità di utenti molto attivi.
Velocià: sebbene molti (soprattutto per motivi ideologici) affermino che Mysql sia più veloce dai benchmark si evince che Sql Server è nettamente più veloce di Mysql ( www.ijarcce.com/~IJARCCE%2039.pdfwww.dbgroup.unimo.it/~/tesi.pdf)
Api e altri metodi di accesso ai dati: In questo caso vediamo che Sql Server ha a disposizione più metodi di accesso da scegliere tra OLE DB, TDS (Tabular Data Stream), ADO.NET, JDBC, ODBC, mentre MySql si deve limitare a ADO.NET, JDBC, ODBC 
Linguaggi di programmazione supportati: in questo campo decisamente Mysql è avvantaggiato (18 linguaggi supportati), mentre Sql Server affianca al classico .net, Runy, Phyton, Php Go, Dephy, C++, R e Java script (tramite Node.js).
Viste indicizzate: MYSQL offre solo viste aggiornabili, Sql Server,invece, offre anche le viste indicizzate che sono molto più potenti e con un rendimento migliore (per chi volesse sapere cosa sono le viste indicizzate rimando al tecnet di microsoft).
Funzioni personalizzate: Sql Server permette all’utente di definire le proprie funzioni, mentre in Mysql questa possibilità non è presente.
 
Dopo aver analizzato da un punto di vista tecnico le differenze tra i due vorrei chiudere la comparazione tra i due correggendo alcune affermazioni che ho trovato su internet che dicono che Google, Facebook, Youtube ed i principali siti web usano Mysql. In realtà Google e Youtube usano BigTable, un database sviluppato in proprio, Facebook usa due diversi database Hive e Cassandra, MySpace usa Sql Server, Twitter usa MySQL, FlockDB, Memcached (in una versione sviluppata in proprio chiamata Twemcache), mentre altri siti web che usano  Mysql tendono sempre di più ad affiancarlo o a migrare ad altri database come ad esempio MariaDB, un fork di Mysql creato dal programmatore originale dello stesso, che supera alcune delle limitazioni del database originale.
 
Concludendo diciamo nuovamente che non si tratta di quale tra MySQL o Sql Server sia migliore, ma quale tra i due è il più adatto per il nostro progetto, quale si adatta meglio al server che lo ospiterà, che livello di sicurezza e performance voglio in rapporto al budget che ho a disposizione, ma soprattutto quale è lo sviluppo futuro che prevedo, ricordando che ogni buon progetto inizia con una buona pianificazione iniziale: il passaggio da un database ad un altro non sempre è indolore ed il costo può risultare elevato.

Php o .NET? Facciamo chiarezza

Php o .Net? Facciamo Chiarezza

In più di un occasione negli ultimi anni mi sono dovuto confrontare sulla discussione se sia meglio usare PHP o .Net per il web. 
Su internet si leggono moltissime critiche e moltissimi luoghi comuni (che sono per la maggior parte sbagliati) verso la tecnologia .NET dovuti soprattutto a prese di posizione ideologiche o ad ignoranza.
Per prima cosa bisogna fare chiarezza e spiegare (anche a chi si reputa un esperto) che per fare un confronto tra due elementi bisogna che siano simili, ma confrontare PHP e .NET è come confrontare le mele con le pere.
Chi pensa a .NET per il web pensa ad un linguaggio di script simile al suo predecessore ASP ma questo non è vero: Asp.NET non è un linguaggio di programmazione ma una tecnologia basta sul .NET Framework della Microsoft. Questo significa che applicazioni e siti web che utilizzano tecnologia .NET possono essere scritti in linguaggi differenti (Visual Basic .NET , C# , J#, e molti altri) e compilati!
Php è, invece, linguaggio script dove bastano poche righe in un file di testo ed avremo creato una routine e realizzato un "programma".

Chiarita questa differenza che ci spiega perché non è possibile un confronto esatto tra le due metodologie di sviluppo possiamo adesso sfatare i luoghi comuni.

Costi.
Una delle prime cose che un appassionato di PHP fa notare è che PHP è gratis mentre .NET è a pagamento. Nulla di più sbagliato!
Microsoft ha messo a disposizione prima visual studio express edition e poi la sua evoluzione visual studio 2017 che nella versione Comunity è, come il suo predecessore, completamente gratuito (per l'istallazione offline di visual studio 2017 vedere https://www.filoweb.it/tutorial/6-Installazione-offline-di-Visual-Studio-2017 ).Visual Studio 2017, inoltre, tramite una singola IDE fornisce la possibilità di sviluppare sia applicazioni web che per device mobili che per desktop.
È vero che .NET lavora su server windows, mentre PHP può lavorare tranquillamente su server linux ma, se si guardano i prezzi, la differenza tra un hosting windows o uno linux non è più così elevata, tanto che a volte un hosting windows costa meno di uno linux.

I maggiori siti web usano PHP.
I sostenitori di PHP si fanno forza nell'affermare che i maggiori siti web (Google, Facebook, Youtube, Amazon, ecc.) sono fatti in PHP.
Se non completamente una bufala questa è un'imprecisione: abbiamo detto che PHP è solamente un linguaggio di script, vi sembra quindi possibile che un sito come google, che è il più visitato al mondo (fonte alexa) possa limitarsi solamente ad un linguaggio di script per l'elaborazione? Certo che no! Al massimo usano una versione di PHP pre-compilato tramite una virtual machine JIT (HHVM).
Ed infatti Google, come linguaggio di programmazione, usa un mix di C, C++, Go, Java, Python e PHP (HHVM). Così come anche Facebook (Hack, PHP (HHVM), Python, C++, Java, Erlang, D, XHP, Haskell) e Youtube (C, C++, Python, Java, Go), mentre Amazon preferisce stare sul classico utilizzando Java, C++, Perl. 
Quindi è vero che usano PHP che, però, non è l'unico linguaggio utilizzato.
Per quanto riguarda soluzioni enterprise vediamo poi che le maggiori aziende nel settore usano tecnologia .NET per integrare i loro servizi come nel caso di Office 360, Visual studio, Salesforce.com, Washingtonpost (Php e .NET), GoDaddy, e molti altri1.

PHP è più usato
Questo è vero. Secondo un indagine del 2017 il 57% dei siti web usano PHP contro solamente il 34% di quelli che usano .NET. 
I motivi di questa differenza sono molti, prima di tutto la difficoltà di .NET quando si inizia e la convinzione che per usare .NET siano necessari notevoli investimenti.

PHP è più simile al C++ o al Java
Abbiamo detto che .NET usa diversi linguaggi per interagire con il frameworks proprietario tra i quali c# (che è il linguaggio più usato per .NET).
C#, pur profondamente diverso da c++ risulta molto più simile a quest'ultimo di quanto lo potrà mai essere PHP.
Ricordiamo in questa sede, per esempio, che la sintassi di base del C# è spesso molto simile o identica a quella dei linguaggi C, C++ e Java, come C++ è un linguaggio orientato ad oggetti e le specifiche sono di regola raggruppate in metodi (funzioni), i metodi sono raggruppati in classi, e le classi sono raggruppate nei namespace.

PHP è open source e compatibile con diversi sistemi operativi
Ecco un altro luogo comune che deve essere sfatato. Dal 2015 esiste il progetto MONO, ovvero un progetto per creare una serie di strumenti compatibili con il frameworks .NET che comprendono un compilatore C# e il CLR (la macchina virtuale e le librerie standard .NET).
Mono è inoltre compatibile con Linux, MacOS, Sun Solaris, BSD, Windows e molti altri sistemi operativi.

Il Codice PHP può essere editato con un normale editor di testo .NET no.
Sebbene usare .NET senza Visual studio sia difficile questo non vuol dire che sia impossibile. Per editare codici .NET si possono usare molti editor di testo: oltre a visual studio, microsoft, mette a disposizione Visual Studio Code (ad esempio) oppure posso sempre usare il buon vecchio Notepad++

PHP è più scalabile di .NET
Questo non è assolutamente vero: sia PHP che .NET hanno una grande scalabilità, al massimo è la capacità di un programmatore a decretare la più o meno scalabilità di un progetto.
Chi usa principalmente PHP trova più facilmente da "scopiazzare" codici o parti di codici, ma questo non vuol dire essere in grado di programmare un sito web moderno.

PHP è più semplice e facile da imparare
Questo sarebbe vero se .NET fosse un linguaggio di programmazione ma, come abbiamo più volte ripetuto, non lo è. Si può quindi scegliere tra diversi linguaggi a seconda delle proprie capacità e, sicuramente, usare VB.NET è molto più semplice di PHP.
D'altronde la semplicità non è sinonimo di buone performance o qualità di un linguaggio: il LOGO è un linguaggio semplicissimo (si usa per insegnare a programmare ai bambini delle elementari), ma nessuno si sognerebbe mai di fare un programma gestionale in logo oggigiorno!

 

Questi sono solamente alcuni dei luoghi comuni che vengono proposti da chi discute se sia meglio PHP o .NET. Noi ribadiamo invece che un confronto tra i due non è assolutamente possibile trattandosi di tecnologie estremamente diverse.
Quasi tutte le ritrosie ad usare una tecnologia come .NET da parte di chi sviluppa siti web sono dovute a falsi luoghi comuni o prese di posizione ideologiche e soggettive ( la più comune è che si tratta di un prodotto microsoft), ma poco su punti di vista oggettivi.
Certo potrebbe sembrare assurdo usare una tecnologia potente come quella di .NET per sviluppare un sito web del piccolo negozio di frutta e verdura sotto casa, ma per progetti più complessi non è una soluzione da sottovalutare e, visto che è ottimale per soluzioni enterprise, può tranquillamente essere ottima anche per piccole e medie aziende come agenzie immobiliari, studi professionali, liberi professionisti e tutti coloro che necessitano di qualcosa di più di un semplice sito web.
Quindi la vera domanda non è se PHP sia migliore di .NET o vice versa ma, bensì, quale tecnologia è più adatta alle mie necessità attuali e future?

1 Lista di alcuni siti web che usano la tecnologia .NET: StackOverflow, Stackexchange.com, Bing.com, Microsoft, office.com, W3Schools, codeproject.com, Dell, University of Essex (ww.essex.ac.uk), Visual Studio, Cannon, Brother, Marketwatch, Washingtonpost.com, GoDaddy, diply.com (1 miliardo di visualizzazioni video mensili, tra i primi 10 lifestyle su comscore), Salesforce.com (una delle società più valutate di cloud computing statunitense), Careercruising.com ( +5 milioni di utenti, 15,784 posizionamento globale dati Alexa) , Nasdaq.com, Remax.com, Epson.com, Hp.com (.Net, Php, Java), Mazda.it, ilsole24ore.com (.net, Php, Java), usatoday.com

Accettare le regole del gioco

Accettare le regole del gioco

Premessa: i social network sono ormai entrati di prepotenza nella nostra vita e non possiamo più farne a meno, ma cosa sono i social network? Semplice sono una serie di servizi (solitamente offerti tramite la rete internet) che consente la comunicazione e la condivisione dei contenuti personali con gli altri.
Tramite i social network possiamo “rimanere in contatto” con i nostri amici o parenti che non vediamo da molto senza dover spostarci dalla nostra scrivania, possiamo far sapere a tutti quanto ci piace andare a mangiare messicano o quanto non ci sia piaciuto un film, oppure possiamo condividere le foto delle nostre ultime vacanze per far invidia al nostro collega antipatico.
Tutto questo è possibile con una semplice azione del nostro smartphone o pc garantendoci una certa dose di anonimato.  Si perché anche se la foto in copertina sulla pagina del social è la mia e i dati del profilo sono i miei, non sono realmente “faccia a faccia” con i miei interlocutori, tutto passa attraverso una tastiera ed un monitor (o display). Mi sento quindi più libero nell’esprimere le mie idee o le mie preferenze, tanto i miei interlocutori, se ce ne sono, posso zittirli con una semplice azione che ne elimina il commento.
E così, mentre cresce la mia autostima creata in un mondo virtuale con pochi post ho già fatto sapere, senza rendermene conto, quelle che sono non solo le mie preferenze ma anche le mie inclinazioni e spesso anche dove vivo.

Il recente scandalo di Facebook con Cambridge Analytica ha scosso l’opinione pubblica sulla sicurezza dei dati che condividiamo online e su quanto i social network possano influenzare la nostra vita.
Non parleremo in questo contesto dello scandalo di Facebook e di come Cambridge Analytica tramite l’app “thisisyourdigitallife” abbia carpito di dati dei profili di milioni di utenti nel mondo, ma cercherò di creare una consapevolezza di quello che è un uso corretto dei social network.
Una delle prime cose che dobbiamo tenere a mente è che nulla di quello che mettiamo in rete andrà mai veramente perso, possiamo eliminare il nostro profilo, con tutte le foto e i post, ma chi mi assicura che nessuno dei miei contatti abbai salvato o condiviso con altri ciò che ho scritto o pubblicato?
Inoltre i dati che pubblico, anche se cancello il mio profilo, potrebbero rimanere nei server dell’azienda che mi offre il servizio, o addirittura (come succede con molti social network) non permettere di cancellare il profilo ma solamente di “sospenderlo”. Prestiamo quindi sempre molta attenzione ai termini che accettiamo quando ci iscriviamo ad un social network dato che, spesso, la maggior parte dei social network così come i loro server hanno sede all’estero, e in caso di disputa legale o di problemi riguardo la privacy, non sempre si può essere tutelati dalle leggi italiane ed europee.
Anche se un social network mi può dare l’impressione di appartenere ad una piccola comunità questo non è assolutamente vero. Nel 1929 lo scrittore ungherese Frigyes Karinthy ipotizzò la "teoria dei sei gradi di separazione" secondo la quale ognuno di noi può essere collegato a qualunque altra persona al mondo attraverso una catena di conoscenze non più ampia di cinque individui; nel 2011 un esperimento di un  gruppo di informatici dell'Università degli studi di Milano, in collaborazione con due informatici di Facebook, effettuò un esperimento su scala planetaria per calcolare il grado di separazione tra tutte le coppie di individui su Facebook. In media i gradi di separazione riscontrati furono 4,74.
Vediamo quindi che quello che consideriamo il nostro piccolo mondo virtuale in realtà non è così piccolo.
Come ultimo spunto di riflessione vorrei concentrare l’attenzione del lettore su quanto valgono i miei dati: i social network, che sembrano gratuiti sono in realtà molto simili ai canali televisivi commerciali.
Facebook, linkedIn, e tutti gli altri social network sono profumatamente pagati dalle informazioni personali su gusti, abitudini di vita e interessi degli utenti che vengono vendute ad aziende di pubblicità, aziende di marketing, ecc. che poi usano queste stesse informazioni per promuovere prodotti o servizi per i loro clienti che vengono quindi ricaricati sull’utente finale tramite il prodotto venduto, proprio come nelle pubblicità sulle televisioni commerciali. Tutto questo è lecito perché nel momento in cui accetto i termini della privacy e sull’uso dei dati personali (spesso condizione obbligatoria per l’iscrizione) autorizzo la circolazione di ciò che scrivo o pubblico.

Queste considerazioni non devono spaventare chi utilizza solitamente un social network che rimane, se usato con intelligenza, un potente strumento non solo per rimanere in contatto con persone che diversamente non avremmo modo di contattare, ma anche come canale alternativo di promozione per una qualsiasi attività commerciale.
Sarà sufficiente ricordarsi sempre che la forma di tutela più efficace è (e sempre sarà) l’autotutela, cioè la gestione attenta dei propri dati personali e dei propri post perché “se voglio mettermi in gioco devo accettare le regole del gioco”.

Qualcosa non ha funzionato

Alla fine degli anni '90 era pensiero comune tra i nerd ed i programmatori che se si fosse dato a tutti la a possibilità di esprimersi liberamente e scambiarsi idee e informazioni, il mondo sarebbe diventato automaticamente un posto migliore. Ci sbagliavamo!

A febbraio la morte di John Perry Barlow, paroliere dei Grateful Dead, pioniere di Internet e tra i co-fondatori della Electronic Fontier Foundation ci porta a riflettere su quanto le idee espresse nella Dichiarazione di indipendenza del Cyberspazio, di cui è stato l'autore, siano state forviate ed abusate dalle stesse persone che voleva rappresentare.

Uno dei punti principali della dichiarazione recita: "Stiamo creando un mondo dove tutti possano entrare senza privilegi o pregiudizi basati su razza, potere economico, militare, o stato sociale. Stiamo creando un mondo dove chiunque, ovunque possa esprimere le proprie opinioni, non importa quanto singolari, senza paura di venire costretto al silenzio o al conformismo."

Bene, questo mondo è stato creato ma il risultato non è quello voluto da Perry!

Non a caso un'altra delle figure fondamentali nella storia del web, il cofondatore di twitter Evan Williams, ha pubblicato le sue scuse per il contributo che il social media potrebbe aver dato alla vittoria elettorale di Donald Trump, affermando che "The Internet is Broken" e che "And it's a lot more obvious to a lot of people that it's broken".

Ma cosa si è rotto?

Per prima cosa bisogna specificare che la democrazia della Rete non ha funzionato: ha un sacco di pecche, dilaga l'odio e la violenza che alberga principalmente sui social che hanno preso il posto dei newsgroup.

Gli stessi giornali hanno iniziato ad usare i social network come fonte di informazione principale perdendo la loro libertà di giudici della notizia e non solamente semplicemente coloro che la riportano.

Il web non è poi più fatto semplicemente dalle persone (come credono i molti) ma da multinazionali che veicolano ed usano ciò che sanno di noi: negli ultimi anni abbiamo messo tutti i nostri dati, le nostre abitudini e le nostre passioni nelle mani di poche grandi società (Facebook, Twitter, Google, Instagram ) che sanno cosa ci piace, cosa facciamo e dove andiamo.

In base ad una ricerca di Tech Spartan ogni minuto vengono effettuati 600.000 login su Facebook, caricate 67000 foto su Instagram, lanciati 433000 tweet ed effettuate quasi cinque milioni di ricerche su google.

Ma come si è rotto?

Il primo motivo di questa "rottura" di internet siamo noi: quando abbiamo qualcosa da dire lo affidiamo a qualcuno che lo utilizzerà per farci dei soldi. Per Facebook, Youtube, Twiter noi siamo sia il prodotto da vendere che il compratore. Attraverso di noi veicolano la pubblicità che arriva a noi ed ai nostri amici.

Tutto questo con l'illusione di essere liberi di scrivere ed esprimere le nostre idee salvo poi accorgerci che alla minima infrazione a quello che loro considerano "giusto" veniamo puniti con una sospensione temporanea o definitiva del nostro account, ma quando siamo noi a dover fare una rimostranza ci troviamo impossibilitati a farlo!

Cosa possiamo fare?

Il web si è dimostrato come il fuoco di Prometeo: donato agli uomini per uno scopo nobile viene da loro stessi distorto.

Non demonizziamo i social network: sono aziende e come tali devono generare dei profitti ed hanno trovato il modo di generare i profitti tramite le nostre debolezze e le nostre vanità: non viene più premiato il contenuto ma la visibilità di un post ( o notizie o foto).

Quindi siamo noi i primi che dobbiamo imparare a cambiare i nostri comportamenti: impariamo semplicemente ad avere buon senso e capacità di non esagerare quando si ha una tastiera fra le mani, cerchiamo meno autocelebrazione e impariamo a condividere dei contenuti di qualità…

sempre che si abbiano dei contenuti da condividere!

Trend webdesign 2018

trend 2018Il mondo del web, come la moda, è soggetto a cambiamenti di stile e gusto.
Se in passato le tendenze del web cambiavano lentamente negli ultimi anni, complici nuovi dispositivi e nuove tecnologie che offrono nuove opportunità di sviluppo,  i cambiamenti e le mode sembrano aver messo il turbo.
Nonostante questo alcuni aspetti sono rimasti importanti mentre altri sono spariti per lasciare spazio a nuove tendenze.
Vediamo ora di analizzare quello che si presume sarà il trend per il 2018 nella creazione dei siti web.

Facilità d’uso e l’alto contenuto informativo
Questi due punti non sono mai venuti meno, anzi sono aumentati con l’aumentare dei siti web disponibili e degli utenti della rete;  un contenuto user-friendly dovrebbe essere chiaro e facilmente accessibile  con l’uso di elenchi puntati, tag H2, H3, H4, per evidenziare le sezioni.
Il contenuto della/e pagina/e deve essere attuale e di rilevanza per l’utente: il sistema di ranking di Google è progettato e viene continuamente perfezionato intorno al concetto di rilevanza ed utilità per l’utente; la lunghezza di un testo è una caratteristica decisiva per capire come un tema venga trattato su un sito. 
Ai testi lunghi viene assegnato un valore informativo maggiore! 
La presenza di pubblicità nella pagina non deve essere ne troppa e ne troppo invadente.
Quindi il 2018 sarà indirizzato ancora ed in maniera più decisiva verso l’utente finale.

Mobile-First Index
Dato che il 55% del traffico web mondiale passa tramite dispositivi mobili Google ha deciso di passare al Mobile-First Index. Cosa vuol dire?  
Semplicemente che dal 2018 Google giudicherà i siti web partendo dalla versione mobile, quindi nelle ricerche (indipendentemente dal mezzo con il quale sono state fatte) compariranno prima i siti ottimizzati per il mobile. Questa è la naturale evoluzione del “mobilegeddon” del marzo 2015 che porta prima di tutto ad avere siti veloci, con immagini ottimizzate (e non eccessive), video che non partono e non si caricano in automatico, contenuti facili da leggere e soprattutto siti che si adattino a più dispositivi con diverse risoluzioni quindi preferenza a siti responsitive anziché con versioni mobili separate.

Per quanto riguarda  l’estetica di un sito web,  partendo dalle “necessità” tecniche SEO precedentemente indicate vediamo che, mettendo al centro la facilità d’uso è importante la UI

User Interface (UI)
L’interfaccia deve essere esteticamente chiara e ordinata, se i menù sono molti si può ricorrere all’ hamburger menu o anche hamburger button per le versioni mobili del sito, distanziare i menù in maniera che siano facilmente cliccabili, evitare fonts pesanti e di difficile lettura.

Contenuti chiari
Evidenziare e separare i diversi contenuti tramite un layout a schede (esempio Google news , Facebook, Pinteres, Twitter).  Nei  layout a schede i contenuti  sono presentati in più schede distribuite su tutta l’ UI.
Questo tipo di interfaccia permette inoltre una più razionale presentazione dei contenuti, delle immagini, dei video e dei pulsanti.

Font e tipografia
Se fino a poco tempo fa i caratteri di grandi dimensioni e l’uso di diversi font era da deprecare, adesso (usati in maniera armoniosa) è invece consigliato in quanto facilita la lettura e l’individuazione dei contenuti. Ma attenzione che non va mai dimenticato un aspetto: il font selezionato deve essere facilmente leggibile per l'utente con ogni dispositivo e non eccessivamente pesante da caricare.
Nel 2018, potremmo anche vedere caratteri e colori prendere il posto delle immagini. Questo ha senso soprattutto per i dispositivi mobili. A differenza delle immagini, che rallentano le pagine, il ridimensionamento della dimensione dei fonts non influisce sulle prestazioni e crea linee più pulite sulla pagina. Pulsanti grandi, immagini cliccabili stanno andando fuori moda!

Velocità del sito.
La regola generale del "less is more" che non significa un sito web con pochi contenuti multimediali o di immagini ma che presta attenzione a quali sono e dove sono.
Considerando che la velocità di un sito web ha un grande impatto sulla User Experience, prendiamo in considerazione che se si superano i 5 secondi prima che siano visibili i contenuti abbiamo perso quasi sicuramente il nostro utente.
Per questo motivo è bene usare delle piccole attenzioni:

  • caricare gli elementi chiave per primi, ovvero quei componenti del sito web visibili all’osservatore senza che sia necessario lo scrolling;
  • salvare le immagini nel formato Progressive JPEG e non farle eccessivamente pesanti;
  • posizionare, quando possibile, gli script alla fine della pagina e raggrupparli in un unico file per minimizzare le chiamate al server;
  • ottimizzare i CSS.

SVG
SVG sarà l’estensione più popolare nelle tendenze del web design 2018.
Chiaramente non sempre si potrà usare questo tipo di formato, ma quando possibile meglio usarlo in quanto essendo un formato vettoriale ( a differenza del PNG o JPG o del GIF che sono bitmap) si adatta meglio e senza perdita di qualità alle varie risoluzioni.
Dunque, SVG non può sostituire foto o immagini complesse, ma per  loghi o altro è consigliato.

Fine del flat Design
Il 2018 segnerà il passaggio dal Flat Design al  Material Design, in modo da dare all’utente una UI simile a quella che trova nel suo dispositivo mobile.
Bisogna ricordare che il material design è l’evoluzione del flat design e quindi non vuol dire tornare a fronzoli ed elementi “barocchi” tipici dei siti web pre flat design ma un mix di realismo e minimalismo applicato alla grafica che ha come obbiettivo quello di favorire una navigazione più semplice e intuitiva per l’utente.

Micro-interazioni.
Facebook e altri social network hanno reso le micro-interazioni estremamente popolari.  
Ecco che anche il semplice “condividi” diventa un esperienza interattiva dove le microinterazioni consentono all'utente di interagire con gli altri senza ricaricare la pagina.
In definitiva le Micro-interazioni forniscono utili feedback agli utenti, in modo divertente e migliorandone la navigazione.

Concludendo possiamo affermare che il trend per il 2018 punterà ad una maggior attenzione alle necessità dell’utente, anche grazie ai motori di ricerca che premieranno quei siti web che danno la precedenza ai contenuti e alla User Experiences, anziché  puntare solamente alla visibilità.
Ed il tuo sito web è pronto per il 2018?

Coding nelle scuole: il bambino impara a pensare.

Il pensiero computazionale è  un processo mentale per la risoluzione di problemi che permette di operare a diversi livelli di astrazione del pensiero. Il miglior modo per sviluppare il pensiero computazionale, ad oggi,  è tramite il coding. Il termine coding, in italiano, si traduce con la parola programmazione, ma questa traduzione letterale limita molto quello che è il concetto già di per sé molto astratto della parola stessa e l’uso che ne viene fatto.

Abbiamo iniziato affermando che il coding è il miglio modo per sviluppare il pensiero computazionale. Vediamo di approfondire la spiegazione di cosa sia il pensiero computazionale, prendendo spunto da un articolo di  Jeannette Wing ( professoressa di “Computer Science” alla Columbia University) del 2006:

“Computational thinking is a fundamental skill for everyone, not just for computer scientists. To reading, writing, and arithmetic, we should add computational thinking to every child’s analytical ability.
...
Computational thinking involves solving problems, designing systems, and understanding human behavior, by drawing on the concepts fundamental to computer science. Computational thinking includes a range of mental tools that reflect the breadth of the field of computer science.” (
http://www.cs.cmu.edu/~15110-s13/Wing06-ct.pdf)

 

Come afferma la professoressa il pensiero computazionale è un metodo di pensare che si può applicare poi nella vita di tutti i giorni e nei rapporti con le altre persone, non è quindi solo un metodo per “imparare a programmare” come affermano i meno informati.

Il coding permette di mettere insieme diverse necessità delle varie discipline scolastiche: come in grammatica bisogna seguire correttamente una sintassi e delle regole,  come in matematica è importante impostare la procedura risolutiva di un problema, sempre come in matematica ed in musica bisogna saper leggere e scrivere usando linguaggi simbolici e, come quando si scrive un testo di italiano,  è necessario scrivere un testo corretto, comprensibile ed espressivo.
Agli inizi degli anni ’60 il professor Seymour Papert del mit ideò quello circa venti anni dopo sarebbe diventato uno dei principali strumenti per insegnare il coding ai bambini: il LOGO.
Inizialmente il LOGO serviva per muovere un robot con dei semplici comandi avandi 10, destra 90, ecc. , fino a quando negli anni ’80 con l’avvento dei monitor e dei computer a basso costo venne sviluppata una versione visuale che letteralmente disegnava sullo schermo quello che in precedenza un robot faceva.
Sempre negli stessi anni iniziarono ad uscire in commercio giochi che si programmavano allo stesso modo e che ancora adesso vengono prodotti.
La semplicità del linguaggio ed il fatto che le principali azioni consistevano del disegnare su di uno schermo portarono il LOGO a diventare il linguaggio principale per spiegare ai bambini i concetti geometrici (cerchio, quadrato, triangolo, ecc) e permise a molti bambini di avvicinarsi ai rudimenti della programmazione sotto forma di gioco.
Purtroppo per molti anni, in Italia ed in molti altri paese, l’idea di insegnare il coding a scuola rimase relegato ai licei sperimentali o agli istituti tecnici con indirizzo specifico, fino a quando ,nel 2014 con la riforma della buona scuola venne introdotto il pensiero computazionale nelle scuole.
Pensiero computazionale, è uno strumento universale: pensare in modo computazionale significa suddividere il processo decisionale in singoli step e ragionare passo dopo passo sul modo migliore per ottenere un obiettivo. Una comportamento che in realtà mettiamo in atto tutti i giorni spesso in maniera inconscia. 
L’esempio più significativo di utilizzo del pensiero computazionale lo troviamo nel film “Apollo 13” nella scena dove un think thank di ingegneri si deve inventarsi un filtro per l’ossigeno partendo da pochi materiali disponibili.
Come abbiamo detto all’inizio il pensiero computazionale è un modo di pensare a diversi livelli di astrazione per raggiungere un obbiettivo, il fatto che il Coding sia il metodo più diretto per sviluppare questo modo di pensare porta alla conseguenza che avremo delle persone più consapevoli non solo del mondo che le circonda ma anche di come interagire con esso visto che sono in grado di padroneggiarne le basi: non saranno più dei semplici fruitori della tecnologia ma ne saranno i veri padroni.

“Intellectually challenging and engaging scientific problems remain to be understood and solved. The problem domain and solution domain are limited only by our own curiosity and creativity" (Jeannette Wing)

Adesso niente panico

Con il DDL Orlando si introduce l'uso dei "captatori informatici" per aiutare le forze dell'ordine e la magistratura nello svolgimento dei loro compiti e potranno anche essere utilizzati per indagini su reati minori.
Tralasciando un punto di vista giuridico (per il quale non ho né le conoscenze, né la preparazione adeguata) vorrei analizzare la notizia da un punto di vista tecnico e togliere un po' dell'allarmismo che circola sui blog in rete.
Partiamo prima di tutto nel capire cosa sono questi "captatori informatici": tecnicamente si tratta di un software malevolo in grado di infettare dispositivi come smartphone, tablet o pc e di accedere a tutta la sua attività e di attivare microfono e videocamera. 
Si capisce subito quindi che non stiamo parlando solamente solamente di trojan (anche se molte testate tendono a definirli: "trojan di stato") ma possono essere anche dei virus, degli spyware o anche dei "semplici" back door.
È quindi considerare che anche i captatori informatici di stato si comporteranno allo stesso modo di quelli attualmente in circolazione usati dai malintenzionati e che, di conseguenza, anche loro dovranno sottostare alle stesse "regole" per installarsi. 
Un utente normale non dovrebbe, in teoria, che continuare a seguire le regole che ha sempre usato per la sicurezza dei propri dati: fare attenzione a quali siti visita e cosa si scarica, avere un antivirus sempre aggiornato, evitare tutti quei comportamenti considerati a rischio.
Per quando riguarda i dispositivi mobili il discorso si fa invece più complicato. Abbiamo appena detto che, come tutti i virus informatici, anche i captatori informatici di stato devono essere installati sul dispositivo ed è quindi possibile che i responsabili delle forze dell'ordine chiedano aiuto ai gestori dei servizi telefonici.
Ma come funzionerebbe un metodo simile?
Molti dispositivi mobili sono "brandizzatri" che se da un lato consente di risparmiare sul costo d'acquisto del device dall'altro essendo quest'ultimo commercializzato dall'operatore telefonico viene personalizzato dallo stesso attraverso l'inserimento del proprio logo e da una serie di software proprietari. 
E qua sta l'inghippo: questi software sono spesso difficilmente rimovibili (senza dover hackerare il dispositivo e farne decadere la garanzia) e possono essere una porta aperta all'inserimento e l'installazione nel dispositivo di software indesiderato. Ovviamente questo è solo un possibile scenario e la realtà potrebbe essere molto diversa.
Riguardo l'utilizzo da parte dell'ordine dei dati raccolti e delle modalità il DDL Orlando sembra mettere un po' di ordine nel caos attualmente esistente e regolamentarne l'utilizzo, ma (come già detto) da un punto di vista giuridico non sono qualificato a trarre considerazioni.
Per finire vorrei ricordare delle parole che mi diceva sempre mio nonno: "male non fare paura non avere", quindi se avete la coscienza pulita non vi dovrete preoccupare dei captatori informatici di stato.

Più Pokemon Go e meno Office?

Più Pokemon Go e meno OfficeA gennaio del 2016 scrivevo su queste pagine di come la microsoft avrebbe recuperato campo nei disposivi mobili grazie a windows10 e windows10 mobile.
Purtroppo questa mia speranza/previsione si è dimostrata azzardata: dopo che anche Bill Gates ha dichiarato di non usare più windows phone sul suo telefono ma di essere passato ad Android, anche Joe Belfiore (vicepresidente per i sistemi operativi) ha spiegato in una serie di tweet di ottobre 2017, che quel comparto (windows phone) "non è più il focus" di Microsoft che comunque continuerà a sviluppare il supporto per la sicurezza e le patch.
Cosa vuol dire? Semplice che la casa di Redmond non svilupperà più nuovi software per i dispositivi con windows 10.
A cosa è dovuto questa fine? 
Microsoft era entrata tardi nei dispositivi mobili, sebbene già in passato con windows CE avesse messo a segno diversi buoni risultati non era riuscita ed entrare nel mercato emergente al momento giusto trovandosi ad affrontare, in seguito, un mercato già consolidato da Android e Apple. A questo si aggiunge che pochi sviluppatori sono stati disposti a "rischiare" su quel sistema operativo che aveva pochi utenti e pochi utenti volevano un sistema operativo che non disponeva di molte app sullo store. Insomma un cane che si morde la coda.
È stato, invece, in giappone e nel mercato Business dove Microsoft ha avuto il massimo dell'espansione con windows phone, segno che il sistema era buono e stabile per chi non cercava fronzoli ma sicurezza: molte delle funzioni che su altri dispositivi erano disponibili tramite app in windows phone erano già presenti nel sistema operativo. 
Windows mobile era (e rimane tutt'ora), indiscutibilmente, un ottimo sistema operativo: sicuro, stabile ed intuitivo ma, alla fine, la scelta la fanno gli utenti e un ecosistema senza app, per quanto ben fatto, non attrae utenza.
Rispondendo ad un utente che chiedeva appunto più app da utilizzare sul proprio device mobile, Joe Belfiore ha affermato che Microsoft ha fatto in passato veramente il possibile per risolvere questo grande problema. Basta pensare che il colosso di Redmond ha addirittura pagato oltre che sviluppare personalmente le applicazioni delle compagnie più famose che però non hanno mostrato comunque interesse nei confronti della piattaforma che era considerata troppo povera in termini di utenza.
Tutto questo pensando che Microsoft possiede ben 3 delle 5 app del mercato business più scaricate ( Office, LinkedIn e Skype for Business) crea una certa tristezza perché segna la fine di qualcosa che poteva veramente essere la differenza ma che non è stato capito dal mercato… forse la Microsoft doveva sviluppare più Pokemo Go e meno Office?
Per finire non rimangono che I tweet di Joe Belfiore a salutare windows phone: "We have tried VERY HARD to incent app devs. Paid money.. wrote apps 4 them.. but volume of users is too low for most companies to invest"

Un'altra battaglia persa.

Un'altra battaglia è stata vinta dai pigri e gli incapaci: i video verticali.
Per lungo tempo si è combattuta una battaglia per dire "No ai video verticali" ma da quando applicazioni per smartphone come Periscope, Snapchat e Meerkat hanno iniziato ad incentivarne, i pigri e gli ignoranti nelle basi delle riprese video si sono sentiti in diritto di stravolgere ogni buon senso (Periscope non dà nemmeno l'opzione per fare riprese orizzontali).
Anche un colosso come Youtube alla fine si è dovuto adattare alla pigrizia di chi non vuole ruotare lo smartphone e a giugno ha iniziato a contrastare le fastidiosissime bande laterali che accompagnano i video verticali con un aggiornamento che adatta i video verticali all'interfaccia: quando un filmato in verticale viene riprodotto non a schermo intero, YouTube ne mostra solo una parte, adattandolo al player e soluzioni analoghe stanno adottando Google e Viemo, dopo aver fatto una grossa comunicazione cercando di far capire agli utenti che i video verticali non sono "comodi" per il web e sopratutto per la classica visualizzazione a schermo, di computer o televisore.

Il solo fatto che si possa girare un video in verticale non vuol dire che si debba farlo. Il problema dei video verticali si presenta quando li guardi su uno schermo diverso da quello degli smartphone: a differenza di una fotografia (che la si può girare) un video non lo si può girare di 90° e quindi sono costretto a mostrare o delle bande nere oppure delle bande sfumate che non sono esteticamente belle. I televisori, i Cinema e anche gli occhi umani sono strutturati per vedere le immagini in larghezza più che in altezza. La maggior parte degli schermi tv o monitor sono addirittura 16:9 ormai e non più 4:3.
Chi si ricorda quanto era brutto in passato vedere un film girato in cinemascope (rapporto 2.35:1) su di un televisore 4/3? Adesso sta succedendo una cosa analoga con i video verticali, quando si cerca di proiettarli su un monitor o un TV normale l'immagine non è adatta!
Evidentemente chi gira questo tipo di video spera che un domani vi saranno televisori o monitor con lo schermo verticale o che si girano (già esistenti sul mercato) ma pensate a quando sia scomodo e soprattutto non ergonomicamente adatto alla morfologia umana… forse con l'ingegneria genetica, secondo queste persone, dovremmo anche rinunciare alla visione binoculare? Il campo visivo umano ha un'ampiezza orizzontale di circa 200° ed un'ampiezza verticale di poco più di 100°, quindi un aspect ratio che va da 1,78:1 (16:9) a 2,33:1 (21:9), è quello che più si adattano alla nostra visione.
Da un punto di vista tecnico, inoltre, un video verticale perde molte "informazioni", ovvero quello che succede intorno al soggetto creando molta "Aria" sopra e sotto, lasciando vedere solo un piccolissimo spicchio della realtà. Le informazioni registrate in verticale rimangono piccole rispetto al formato, dando una visone piccola della realtà. 
Per chi obbietta che "le dirette FB sono solo in verticale" la risposta è semplice: le dirette devono lasciare spazio ai commenti quindi, in realtà, in questo caso la visualizzazione in verticale permette di avere una buona visualizzazione dello schermo, lasciando la parte sotto per i commenti, quindi una questione di impaginazione più che di corretta ripresa.

È vero che è più comodo tenere il telefono in verticale che non in orizzontale (soprattutto per abitudine), e per una ripresa fatta al volo, dove si estrae il telefono e si riprende ha senso; siamo abituati ad usare il telefono in maniera verticale, ma per i video di lunga durata, dove si riprende magari una manifestazione o un evento o anche solamente la recita del figlio, dove cioè la ripresa non è immediata il video verticale non ha motivo di essere.
Purtroppo è vero che con l'aumento delle persone che guardano tutto tramite smartphone il futuro dei video sarà sempre più verticale, ma questo non vuol dire che sia una buona norma o regola da seguire. Cosa succederà il giorno che si tornerà ad usare dispositivi con schermi "normali"? Ma soprattutto ricordate che fare un video verticale non vuol dire fare un buon video. In inglese hanno coniato una terminologia "Sindrome da video verticale" e, con un video semiserio, si dà una spiegazione molto simpatica del fenomeno ( 
https://www.youtube.com/watch?v=Ko5fFuAZ39o) che invito tutti a guardare.

Concludendo, se anche tu sei stanco di andare sui social o su internet e vedere dei video dove la porzione di inquadratura è minuscola e dove non si vede niente dì NO AI VIDEO VERTICALI

No ai Video Verticali

Per chi dice "Ormai non mi serve più il pc, faccio tutto con lo smartphone"…

Perché questo articolo? 
Inizio con il chiarire che questo non intende essere un articolo polemico ma semplicemente ristabilire un giusto equilibrio tra le funzioni dei vari device perché sempre più spesso mi sento dire: “ Non mi serve più il computer, ormai faccio tutto con il telefono!”.
È vero: il telefono mi permette di ricevere e di rispondere alle e-mail, scrivere testi, navigare su internet, fare foto e molto altro ma…

Iniziamo con una domanda tecnica per poter chiarire questo “ma” che pende dalla frase sopra: i processori degli smartphone sono comparabili ai processori PC in termini di prestazioni?
La risposta è no! I processori degli smartphone (anche i più nuovi) non sono assolutamente paragonabili ai processori per PC:  la misurazione di una CPU Smartphone di fascia alta è diversa dalla misura di una CPU PC di fascia alta e può così capitare che un processore intel vecchio di 5 anni risulta più performante di una CPU nuova di uno smartphone.
Questo perché le CPU del PC sono più grandi e generalmente contengono maggiori istruzioni. Avendo una vita operativa più lunga hanno al loro interno molte istruzioni legacy1 per la necessità di supportare diversi software e anche moltissimo hardware. In generale, se stiamo parlando di CPU Desktop e/o Laptop, stiamo parlando di CPU che supportano x86 e sono generalmente CISC2. Le CPU Smartphone sono generalmente più piccole e supportano meno istruzioni. Molto spesso nelle CPU Smartphone usano chip di RISC molti dei quali sono basati su ARM.
Possiamo parlare sia del PC che dello Smartphone in termini di prestazioni per watt, ma le misure effettive che otteniamo verranno giudicate in modo molto diverso: gli smartphone hanno notevolmente meno potenza della batteria per lavorare rispetto ai portatili anche leggeri e quindi un attività che in un computer portatile fa grosso uso di risorse pur mantenendo sempre un consumo limitato della batteria potrebbe scaricare uno smartphone in poco tempo. 
Da un punto di vista software troviamo che esistono infinite App che permettono di fare moltissime cose, ma allo stesso tempo risultano limitate a determinate funzioni propri in virtù della differente impostazione hardware.
Così succede che, mentre su un PC con un programma posso fare moltissime cose su uno smartphone per fare le stesse devo passare attraverso diverse App e a volte non ho lo stesso risultato. Ad esempio su un PC tramite un programma come Adobe Premiere, posso fare l’acquisizione di un video, modificarlo, renderizzarlo ed esportarlo in vari formati (e molto altro ancora  senza problemi),  su smartphone se uso una sola App ho delle limitazioni per le modifiche o per il rendering oppure devo passare da diverse app per ottenere un risultato che si avvicina a quello ottenuto con un pc.
Per essere sicuro di quello che sto scrivendo ho voluto fare un esperimento molto più semplice:
Mi sono imposto di scrivere un file XML di un RSS Feed3 e uplodarlo su un server web.
Il file era molto semplice solo 13 righe:

<rss version="2.0">
<channel>
<title>Filoweb.it</title>
<link>http://www.filoweb.it</link>
<description>Filoweb.it sito personale di informazione</description>
<item>
<title>CREARE UN LIGHTBOX RESPONSITIVE PERSONALIZZATO</title>
<link>http://filoweb.it/tutorial/3-CREARE-UN-LIGHTBOX-RESPONSITIVE-PERSONALIZZATO</link>
<description><![CDATA[l`effetto Lightbox è quella finestra in overlay che compare nella pagina con effetto opacizzato o meno.<br/> Malgrado esistono diverse librerie pronte all`uso noi vogliamo oggi crearne una noi per capire come funziona.<br/> Il principio è molto semplice: si crea un box con z-index sopra tutti gli altri, larghezza e altezza pari al 100% della pagina, posizione assoluta e non visibile quando inizializzo la pagina. Chiameremo questo box #fondo<br/><br/><a href="http://filoweb.it/tutorial/3-CREARE-UN-LIGHTBOX-RESPONSITIVE-PERSONALIZZATO" target="_blank"> LEGGI ONLINE: CREARE UN LIGHTBOX RESPONSITIVE PERSONALIZZATO </a> ]]>
</description>
</item>
</channel>
</rss>

Mi sono quindi scaricato un editor di testo che supportasse highlighting4 per non farmi mancare nulla, poi ho scaricato un client FTP e mi sono messo al lavoro

Subito mi sono accorto della prima difficoltà: la tastiera. 
In uno smartphone la tastiera è piccola, e se va bene per scrivere messaggi o dei brevi test,i per chi è abituato a scrivere con 2 mani e 10 dita la cosa è complicata; se poi aggiungiamo che si devono usare caratteri quali [] o <> e numeri “switchare” tra la tastiera normale e quella con i simboli e numeri diventava macchinoso e lungo, per non parlare poi dell’assistente ortografico che cercava di correggermi quello che scrivevo fino a quando non l’ho disattivato. 
Provare a dettare? Provare voi a dettare quello che ho scritto sopra.
In ogni caso dopo circa 20 minuti (e diverse imprecazioni da informatico)  sono riuscito a scrivere quello che dovevo ( se avessi usato un PC con una tastiera avrei impiegato meno di 5 minuti).
Per fortuna l’upload del file non ha creato problemi ma… una volta caricato mi compare un errore, infatti mi ero dimenticato un “/” di chiusura, così ho dovuto riaprire il file e correggerlo e mi sono accorto di quanto sia scomodo andare ad una determinata riga e colonna anche solo di un testo su un display dello smartphone.
Così mi sono immaginato un manager che deve scrivere una relazione e vuole farlo con uno smartphone, oppure che deve controllare o editare un foglio Excell complesso sempre con lo smartphone.

Concludendo si può ben dire che uno smartphone può andare bene per chi non deve fare un uso professionale o non sia troppo “piggnolo” nei risultati che siano foto, documenti o altro, ma assolutamente non può sostituire un pc (o un navigatore satellitare che usa il GPS invece che l’A-Gps, o una macchina fotografica - che a parità di Mpixel ha una qualità superiore a quella di uno smartphone di fascia alta in termini di DPI, Lenti, Gamma dinamica, ecc.- o ogni altro strumento specifico).

Se non hai capito metà dell’articolo ma soprattutto se pensi che tutto quello che ti serva sia scattare foto delle vacanze per condividerle su Facebook, navigare, fare qualche giochino di tanto in tanto e magari leggerti le e-mail, senza troppe pretese  puoi tranquillamente continuare a pensare che “con uno smartphone puoi fare tutto quello che fai con il computer e che un PC (fisso o portatile) non ti serva a nulla” perché - in realtà- fai poco o nulla,  altrimenti questo articolo non ti serve dato che sai già la differenza.

 

1 Legacy (ereditato, che è un lascito del passato) è un sistema informatico, un'applicazione o un componente obsoleto, che continua ad essere usato
2 CISC (Complex Instruction Set Computer ) indica un'architettura per microprocessori formata da un set di istruzioni contenente istruzioni in grado di eseguire operazioni complesse come la lettura di un dato in memoria, la sua modifica e il suo salvataggio direttamente in memoria tramite una singola istruzione. RISC (Reduced Instruction Set Computer) indica una filosofia di progettazione di architetture per microprocessori che predilige lo sviluppo di un'architettura semplice e lineare. Uno studio del 2015 che confronta le CPU Intel X86, ARM e MIPS rileva che la microarchitettura è più importante dell'architettura di set di istruzioni, RISC o CISC.
3 RSS (acronimo di Really Simple Syndication) è un flusso di informazioni che permette di diffondere i propri articoli online in formato XML
4 Con syntax highlighting o colorazione della sintassi si intende la caratteristica di un software, solitamente editor di testo, di visualizzare un testo con differenti colori e font in base a particolari regole sintattiche.

I chatbot non sono skynet

I chatbot sono programmi che simulano la conversazione tra una macchina ed un essere umano. Sono spesso utilizzati per il test di Touring (vedi E' stato superato il test di touring?) ma anche per interfacciarsi con gli utenti come nel caso di Siri o Cortana.
La storia dei chatbot ha origine nel 1966 quando Joseph Weizenbaum scrive Eliza, un programma che simula un terapeuta Rogersiano rispondendo al paziente con domande ottenute dalla riformulazione delle affermazioni del paziente stesso. Se ad esempio l'utente scriveva: "Mi fa male la testa" Eliza rispondeva "Perché dici che ti fa male la testa?" e così per un numero invinito di volte.
Per chi fosse interessato a questo programma oggi una versione di ELIZA incorporata come easter egg nell'editor Emacs o si trovano diversi sorgenti anche su internet che ne spiegano il funzionamento.

Oggi i chatbot trovano applicazione pratica in diversi campi: oltre che come assistenti virtuali (siri e Cortana) sono usati per il customer care aziendale (Royal Bank of Scotland in partnership con IBM), per guidare l'acquisto online e alla fruizione dei contenuti (-800-Flowers.com che pare sia stata la prima azienda in assoluto a usarne uno), per aiutare l'utente (i nuovi chatbot di Skype), oppure i chatbot che sta sviluppando Facebook che hanno come scopo lo sviluppo di un software in grado di negoziare con altri bot oppure con le persone, "per raggiungere una decisione o un fine comune".

Alcuni giornali, poco informati o alla ricerca di visibilità hanno pubblicato a fine luglio titoloni allarmistici riguardo due chatbot che sarebbero stati disattivati dopo che hanno creato una loro lingua per dialogare, richiamando alla mente il famigerato skynet di Terminator o il Master Control Program di Tron. 
Nulla di più sbagliato!
Appurato che i chatbot sono programmi che simulano l'IA, i due chatbot di Facebook Bob e Alice hanno dimostrato tutto il loro potenziale sviluppando un linguaggio senza bisogno di nessun input umano.
Queste chatbot (dialog agents) sono state lasciate libere di conversare nel tentativo di rafforzare le proprie abilità comunicative e, a poco a poco, hanno modificando l'inglese fino a creare qualcosa di nuovo. 
I ricercatori di Facebook a questo punto hanno spento le macchine non perché si sono spaventati, ma perché si sono accorti di non aver dato loro le giuste regole, ovvero hanno "detto" ai due chatbot i comportamenti da adottare e gli obiettivi da raggiungere, ma non quale lingua usare.
I chatbot avrebbero dovuto imparare dialogando con gli esseri umani, ma avendo entrambi un interlocutore virtuale sono andati avanti imparando l'uno/a dall'altro/a dalla precedente converssazione sviluppando un loro linguaggio. Il motivo per cui è stato interrotto l'esperimento è che i due chatbot parlavano tra di loro ma nessuno capiva cosa divevano, forse nemmeno loro.
Ecco la conversazione tra i due:

Bob: i can i i everything else . . . . . . . . . . . . . . 
Alice: balls have zero to me to me to me to me to me to me to me to me to 
Bob: you i everything else . . . . . . . . . . . . . . 
Alice: balls have a ball to me to me to me to me to me to me to me 
Bob: i i can i i i everything else . . . . . . . . . . . . . . 
Alice: balls have a ball to me to me to me to me to me to me to me 
Bob: i . . . . . . . . . . . . . . . . . . . 
Alice: balls have zero to me to me to me to me to me to me to me to me to 
Bob: you i i i i i everything else . . . . . . . . . . . . . . 
Alice: balls have 0 to me to me to me to me to me to me to me to me to 
Bob: you i i i everything else . . . . . . . . . . . . . . 
Alice: balls have zero to me to me to me to me to me to me to me to me to

Dhruv Batra, professore alla Georgia Tech e ricercatore al Facebook Ai Research (Fair), responsabile dell'esperimento, scrive nella sua pagina di Facebook che quella di alcuni media è stata "Una copertura irresponsabile e basata sull'inseguire facili click".
L'abilità comunicativa, infatti, non è l'unica prerogativa affinchè l'intelligenza artificiale diventi davvero funzionale, è necessario che si avvicini il più possibile a quella umana.
Sul web e sui media è andato in onda uno "scontro" tra scienza e fantascienza e tra ricercatori e giornalisti… dove sembrano aver vinto questi ultimi.

Polarizzazione del web

Il web si sta polarizzando, appiattendo, uniformando, perdendo di personalità! E il brutto che nessuno se ne sta accorgendo.
Agli inizi degli anni '90 vi era l'anarchia più completa, non c'era uno "standard" per i siti web, tutto era confusione, colori accecanti oppure piatti, poche immagini e di bassa qualità. Ma era normale: avevamo le connessioni in dial-up, pagavamo la famigerata TUT – tariffa urbana a tempo- e quindi si faceva come si poteva.
Arrivò poi il momento delle connessioni flat e delle linee veloci, ISDN prima e ADSL poi e con loro nuove tecnologie. Il web iniziò ad animarsi, tramite server dedicati si poteva fare streaming audio video in tempo reale e con la nascita di "Flash", rilasciato dalla Macromedia, che dava la possibilità di creare animazioni vettoriali in maniera facile e veloce, con un suo linguaggio di programmazione per creare videogiochi online, sembrò che nulla fosse impossibile e l'anarchia grafica aumentò, creando però nel contempo dei capolavori visivi, delle vere e proprie opere d'arte.
Poi tutto finì!
Prima iniziarono a sparire i siti in Flash, in quanto non erano più supportati dai dispositivi mobili e nel giro di pochi anni non abbiamo più un sito in flash tra quelli nuovi e piano piano anche quelli datati iniziarono a sparire... Dobbiamo ringraziare l'arrivo degli Ipad e Iphone? Forse no (anche se sono stati i primi a non supportare flash), probabilmente anche gli altri produttori avrebbero fatto questa scelta nel lungo termine.
Intanto l'arrivo dei CSS, dell'implementazione della tecnologia webkit sui browser e della tecnologia AJAX, insieme all'aumento della banda disponibile per ogni singolo utente, permisero di non sentire troppo la mancanza di "flash" (e, detto da chi scrive, non rimpiangerla nemmeno).
Il secondo grande cambiamento (dovuto sempre all'avvento dei dispositivi mobili) lo ha portato google, il motore di ricerca più utilizzato, quando annunciò che i siti web "mobile friendly" avrebbero avuto un posizionamento migliore di quelli non "mobile friendly". Certo era già da qualche anno che i webdesigner prediligevano un approccio responsitive per siti web, ma vederselo "imporre" in questo modo fa tutto un altro effetto.
Ma non è finita ancora.
Nel frattempo iniziavano a crescere i siti web fai da te modello "IKEA" dove, sfruttando cms (content management system) quali ad esempio joomla o wordpress che, partendo da dei modelli preconfigurati, danno la possibilità di creare in pochi minuti un sito pronto, bello, aggiornabile facilmente e… simile a tanti altri, proprio come i mobili della famosa azianda svedese.
Con la popolarità crescente dei social network, inoltre, per avere un buon posizionamento un sito deve essere anche condiviso e quale metodo migliore per essere condivisi che non inserire un "Condividi" nella pagina? Bello, comodo ma… non basta.
Facebook, il principale social network non si accontenta di mettere a disposizione degli sviluppatori -grazie per la gentilezza! - tutta una serie di tools e script da inserire nelle pagine (appesantendole) ma lancia anche l'idea di creare un formato per facilitare la condivisione dei contenuti l' "Open Graph protocol", che non è certo come quello di twitter (che infatti propone le sue Twitter Card) e quindi inserire altre righe di codice nelle pagine.
Intanto Google, Bing/Yahoo decidono che le keywords ed i metatag non sono più sufficienti per un buon posizionamento di un sito nei motori di ricerca, bisogna anche rispettare le loro regole, inserendo delle schede che sono visibili solo ai motori di ricerca per identificarne meglio il contenuto (schema.org) e nel contempo nelle pagine (sempre per facilitarne il riconoscimento del contenuto) si creano dei dati strutturali e magari (google) si consiglia di usare il loro strumento per evidenziare i dati nella pagina che per funzionare bene richiede che la struttura sia fatta rispettando determinate caratteristiche.
Sempre Google porta alla nascita di quello che viene chiamato material design (che si contrappone al Flat Design, al Metro Style e lo Scheumorfismo dei primi Iphone): lancia l'uso di uno stile, un codice ed un linguaggio di design con cui Google ha deciso di rinnovare tutti i suoi prodotti e di gestirli con gli stessi principi di esteriorità grafica. 
Per finire, pochi giorni fa, sempre google, annuncia che nel suo browser i siti che non hanno una certificazione ssl verranno AUTOMATICAMENTE etichettati come non sicuri. 
Ma una certificazione ssl costa, così un povero amatore, che ha un suo sito o blog per passione pittosto che il piccolo negozio o la piccola azienda a gestione famigliare, si troveranno bollati come degli untori.
Concludendo chi scrive non ritiene giusto che solo perché si detiene una fetta di mercato enorme si abbia il diritto di "obbligare" (e lo metto tra virgolette perché è un obbligo non dichiarato ma necessario) chicchessia ad esprimersi entro determinati paletti, limitandone a volte la forza creativa, pena la non visibilità o facile reperibilità in rete.
A distanza di vent'anni dal boom di internet sembra che la libertà che si prospettava all'orizzonte stia piano piano diventando una libertà che rimane confinata nelle regole dei grandi colossi del web e che i sogni di libertà informatica stiano sparendo, come la conoscenza condivisa che ci si aspettava.
Alla fine anche il web diventerà un grande centro commerciale standardizzato.
Aiuto!

We are thinking for you. So you don't have to.

C'è il declino dell'intelligenza, sia individuale che collettiva. Stiamo perdendo la facoltà di capire, apprendere, giudicare. Siamo meno intelligenti di quanto non lo fossimo quando si studiava fino alla 5° elementare e poi si andava a lavorare. Siamo meno intelligenti perché non esercitiamo più quel muscolo che è il cervello. 
Sissignori il cervello è un muscolo e come tale va esercitato e tenuto in esercizio.
Abbiamo i computer che ci correggono gli errori, suggerendoci a volte anche la frase corretta, e così non sappiamo più usare un dizionario. Ci si affida alle soluzioni già pronte, ai pensieri già elaborati da altri, confezionati pronti all'uso. Apriamo Facebook e troviamo riportate frasi di nostri contatti che ci piacciono, mettiamo un "mi piace" e magari la ripostiamo.

Ma abbiamo mai approfondito se veramente quella persona ha detto quella frase (come se tutte le parole di pace siano state dette da Gandi, quelle di amore da Padre Pio, quelle di rabbia dalla Fallaci)?
Abbiamo mai cercato di capire il contesto socio/politico/storico che contraddistingue quella frase?
Conosciamo la filosofia o i pensieri dell'autore?
No, certo che no, questo implica lavoro, ricerca, tempo, ed il tempo è meglio usarlo per cercare i pokemon anziché la verità.
Abbiamo i mezzi per ampliare la nostra conoscenza, per crescere ma non li usiamo. Internet avrebbe dovuto rappresentare uno strumento unico per accrescere la nostra cultura, invece si sta trasformando nello strumento che distrugge la nostra società.
La libertà di espressione non ha mai raggiunto vette simili, ma questa libertà è abusata da ciarlatani che un giorno si svegliano e creano una pseudoscienza populistica che viene diffusa online.
Una volta si diceva "l'ha detto la televisione quindi è vero!" adesso se una cosa è scritta online e viene ripostata da 10,100, 1000 persone diventa vera anche se non lo è. Creiamo la verità, la conoscenza e la pseudoscienza.
Anche i giornali spesso si affidano ai social network per attingere alle notizie, e poco importa che sia una bufala o meno, poco importa che la verità sia un'altra. Noi la pubblichiamo (noi giornali) la gente la legge, perché è stata postata da 10,100,1000 persone e poi, il giorno dopo o la settimana dopo, postiamo una rettifica, magari a in terza o quarta pagina, una strisciolina piccola, così la verità è stata riabilitata…
È di settembre la notizia che Facebook e Twitter si sono coalizzati nella "First Draft Coalition ", per creare una piattaforma di verifica delle notizie e l'adozione di un codice di condotta.
Ma tutto questo sarebbe inutile se noi stessi ci riappropriassimo della capacita di critica, di saper vagliare il vero. Riscopriamo la facoltà di capire, apprendere, giudicare.
Sforziamoci di ragionare e pensare con la nostra testa senza accontentarci delle soluzioni già confezionate.

La prossima volta che su Facebook trovi una frase che ti piace, prima di condividerla fai i seguenti passaggi:

  • 1) L'autore l'ha veramente detta/scritta?
  • 2) In quale circostanza?
  • 3) È stata estrapolata da una frase più ampia. Cosa voleva dire l'autore?

 

La prossima volta che leggi una notizia postata da un tuo contatto chiediti:

  • 1) Qual è la fonte della notizia?
  • 2) È una fonte attendibile?
  • 3) Ci sono le prove?
  • 4) Se si tratta di una notizia di scienze è una realtà oggettiva, affidabile, verificabile e condivisibile?

 

La scelta è tua, ma non lasciare che il cervello ti si atrofizzi. 

Realtà virtuale e Realtà aumentata

Negli anni '90 aveva suscitato l'entusiasmo nel mondo informatico e sembrava che da lì a pochi anni la realtà virtuale con occhialetti e guanti sarebbe diventata alla portata di tutti e presente in ogni casa. La rivoluzione informatica iniziata dieci anni prima e la nuova interazione uomo-macchina, la creazione dei primi ambienti tridimensionali, fecero apparire naturale un passo ulteriore: l'integrazione tra mondo reale e mondo virtuale.
Riviste specializzate iniziarono a riportare gli schemi tecnici per adattare il "Power Glove" della Mattel ad un comune PC (e funzionava, credetemi l'ho provato!), iniziavano ad essere messi in vendita i primi caschi 3D da interfacciare ai computer domestici ( a prezzi altissimi e simili a caschi da motociclista) e moltissimi software freeware e no permettevano di creare i primi mondi virtuali 3D da interagire con una comune tastiera e/o joystick.
Purtroppo la rivoluzione non accadde nella realtà, ma solamente nel cinema. Certo la tecnologia c'era ed era abbastanza abbordabile dalle persone comuni ma il problema era la poca velocità elaborativa dei computers del tempo e la scarsa qualità grafica allora disponibile.
Le persone comuni che si avvicinavano a questa tecnologia si aspettavano risultati se non uguali almeno molti simili a quelli mostrati nei films holliwoodiani, ma la realtà era ben diversa:un casco di Vr collegato ad un PC permetteva si di intercettare i movimenti della testa e proiettare di conseguenza le immagini relative ma a scapito della risoluzione grafica e della velocità ( si doveva muovere la testa non troppo velocemete); oltre il Power Glow della Matter ( che comunque non era un dispositivo specificatamente creato per il mondo dei computer e che non era più in commercio) non vi erano disponibili altre periferiche di input simili a basso costo per il mercato consumer.
L'uscita sul mercato di console di videogaming specializzato portarono poi ad escludere dal settore del VR l'ultima porzione di mercato che ancora resisteva nel mondo dei personal computer e ad allontanare l'utente. La realtà virtuale rimase così confinata in una nicchia per pochi appassionati o per applicazioni specifiche a costi molto elevati.
Solamente nel primo decennio di questo nuovo secolo c'è stato un rilancio della realtà virtuale, grazie alla possibilità di avere computer più potenti e grafiche migliori.
Vi sono dispositivi che applicati ad un normale smartphone fanno quello che facevano una volta i caschi 3d, anche se la rivoluzione più importante in questo settore è quella di Oculus Rift. 
Oculus Rift serve a trasportare chi lo indossa in un modo virtuale interattivo, in nuove esperienze.
All'interno del mondo virtuale potete muovere la testa per interagire con gli oggetti presenti, tramite il dispositivo oculus touchaiutandovi o con altri sistemi d'interazione più classici, come un joypad, tastiera e mouse.
Purtroppo anche Oculus Rift ha necessità di computer di prezzo medio alto ( si parla di CPU Core i5-4590 equivalente o superiore, una scheda video GeForce GTX 970 / AMD Radeon R9 290 equivalente o superiore e almeno 8 GB o più di memoria RAM. La scheda video deve avere una porta HDMI 1.3, tre USB 3.0 e una porta USB 2.0) al quale va aggiunto il prezzo di Oculus che è superiore ai 500€.
Che la rinascita della realtà virtuale ricominci da qua? Molto difficile!
Attualmente sono due le aziende che stanno cercando di (ri)sfondare nel mercato del VR (oltre che Oculus abbiamo HTC Vive) ma per entrambe la cosa è difficile, soprattutto per l'elevato costo del hardware necessario.
In un sondaggio fatto su 13.000 videogiocatori, solamente il 15% si è detto disponibile a comperare un dispositivo di VR.
Bisogna quindi aspettare dispositivi più economici ( sulla falsa riga di Samsung Gear VR e di Google Cardboard), assistere all'evoluzione dei social network (FB prima di tutti dopo l'acquisto di Oculus) per comprendere in che modo diventeranno una grande piattaforma virtuale e, the last but not the least, comprendere come l'intrattenimento casalingo affiancherà la nuova tecnologia per contribuire al successo della realtà virtuale.

Sempre negli anni '90 iniziano le ricerche per creare quella che verrà definita (10 anni dopo ) realtà aumentata. A differenza della realtà virtuale, dove un computer genera un ambiente completamente artificiale dove interagisce l'utente, la realtà aumentata utilizza l'ambiente reale che la circonda che interagisce con l'utente. Il termine realtà aumentata è infatti del 1990, quando Tom Caudell (ricercatore presso la Boeing) la usa per la prima volta nel descrivere un display digitale che viene utilizzato dai manutentori degli aerei che miscela grafici generati dal computer con la realtà fisica.
Anche la realtà aumentata rimase per parecchio tempo solamente come un "simpatico intrattenimento ludico", dove tramite la webcam un qualunque utente poteva far saltare una pallina sullo schermo o altri giochini simili.
Solamente con l'avvento dei tablet e degli smartphone la realtà aumentata ha iniziato ad avere una sua evoluzione. Tramite dispositivi molto piccoli che l'utente porta con se si ha la possibilità di inquadrare sul display del proprio smatphone un cielo stellato e veder spuntare, affianco ad ogni stella, un etichetta oppure inquadrare con il tablet una via e veder segnate le notizie storiche relative ai monumenti che ci sono e/o ai negozi e bar con relative recensioni.
A differenza della realtà virtuale ( che comunque rimane una tecnologia completamente differente per socpi e metodologie) la caratteristica principale non risiede nella tecnologia in sé, ma nella sua accessibilità: è sufficiente un dispositivo dotato di GPS, webcamera e connessione internet per poter accedere ad un sistema di AR (Acronimo di Realtè Aumentata).
Il futuro della realtà aumentata sembra molto più roseo di quello della VR, e le sue applicazioni quasi infinite. 
Per finire invito a vedere il video di Keiichi Matsuda "Hyper-Reality" (https://vimeo.com/166807261) per avere un idea di quale futuro ci aspetta con la realtà aumentata.

L'importanza di un Ping

Cos'è un PING in informatica? Semplificando diciamo che un PING è un comando che invia un piccolissimo pacchetto dati ad un computer per testarne la raggiungibilità in una rete.
Nel 1986, in un Italia dove l'auto più venduta era la Fiat Uno, si andava in giro con scarpe pesantissime e "giubbotti" rigonfi, dove le giacche avevano le spalle rialzate, si guardava "Drive in" la domenica sera ed il massimo della tecnologia indossabile era un Walkman, per la prima volta fu instaurato un collegamento internet attraverso la rete satellitare atlantica SATNET con una linea da 28kbs. 
Un semplice PING e l'Italia era entrata ufficialmente in ARPANET e di conseguenza nell'era di Internet.
Bisognerà però aspettare ancora più un anno (23 dicembre 1987), prima che vengano creati i domini nazioni, ".it" ( la cui gestione fu affidata al Cnuce ), affinché l'Italia entri completamente nel mondo del web con il primo dominio italiano: cnuce.cnr.it.
In un primo momento la crescita di internet in Italia fu lenta soprattutto per motivi tecnici. Le connessioni erano fatte tramite modem analogico e le velocità raramente superavano i 36Kbs: la maggior parte dei modem erano a 1200bps in ricezione e 75bps in trasmissione, il che per le reti fidonet e le BBS erano più che accettabili.
Anche l'arrivo dei modem 56Kbs non migliorarono di molto le cose, dato che oltre al costo di un abbonamento internet (intorno alle 150.000 lire annue) si doveva pagare la famigerata TUT, la tariffa urbana a tempo, tanto che i primi internauti domestici stavano con un occhio al monitor e con l'altro all'orologio.
Ma ormai la stalla era aperta e i buoi stavano uscendo.
Nel 1990 Tim Berners-Lee presso il CERN inventa un sistema per la condivisione di informazioni in ipertesto noto come World Wide Web. Insieme a Robert Cailliau, Lee mise a punto il protocollo HTTP e una prima specifica del linguaggio HTML. 
Nel 1993 esce Mosaic, il primo programma a fornire uno strumento leggero di navigazione (il primo Browser per usare un termine attuale). Da quel momento non erano più solo caratteri quello che veniva ricevuto sui terminali collegati alla "Rete" ma anche immagini impaginate come in un libro e testo.
Nel 1994 nasce Video On Line che, grazie ad una sapiente campagna di marketing tramite vari periodici, tra cui Panorama, Topolino, Il Sole 24 Ore, offriva l'accesso gratuito ad internet per alcuni mesi e nel 1995 raggiunse il 30% degli utenti italiani (circa 15.000).
Da lì in poi la storia di Internet si è evoluta velocemente; alcuni progetti sono nati e scomparsi, altri sono rimasti, altri ancora si sono evoluti …
È proprio il 1995 che segna l'inizio della mia "love story" con il mondo di Internet.
In quell'anno stavo finendo il servizio militare, ma anche in quel periodo non avevo mai rinunciato a comperare riviste di informatica. Su una di queste ( non ricordo il nome) trovai per l'appunto il disco di VOL ed alla prima licenza mi fiondai davanti al computer e feci il primo collegamento tramite il mio modem a 1200bps…
… La lentezza della connessione nell'aprire la prima pagina mi lasciò leggermente deluso, abituato alle BBS dove i dati trasmessi erano solo testo e quindi la velocità del modem adeguata.
Dovetti aspettare qualche mese, dopo essermi congedato e comprai il mio modem a 36kbs con un abbonamento ad un provider locale e le cose migliorarono notevolmente.
Iniziai a studiare l'HTML e ad affascinarmi a quel linguaggio di script che permetteva di impaginare i documenti per il web.
Ma fu solo nel 2000 che veramente iniziai a lavorare in quel settore, grazie all'incontro con il Professor Pelanda.
Avevo avuto modo di conoscere il professore come mio cliente nel negozio di computer che gestivo con altri due soci e un giorno, dopo un mio intervento tecnico mi chiese se ne sapessi qualcosa di come si fanno siti web. In sincerità gli risposi che sapevo come farne uno ma non avevo mai provato realmente a farne.
Mi diede appuntamento la domenica pomeriggio per discutere.
Ricordo che stetti per quasi 40 minuti sotto il suo ufficio prima di suonare il campanello tanta era l'emozione e la paura. Dentro di me sapevo che questo avrebbe rappresentato un cambiamento nella mia vita ma non mi rendevo conto di quale potesse essere.
Il mio primo sito internet fu proprio quello del professore (
www.carlopelanda.com) che negli anni ha seguito l'evoluzione del web design, a volte anche anticipando le tendenze.
La prima versione era in HTML puro, con qualche GIF animata e ottimizzato per una risoluzione di 800 x 600 pixel. Grafica semplice e colori forti ( che ancora adesso si ritrovano in alcune sezioni).
Poi fu la volta della tecnologia FLASH che permetteva animazioni complesse leggere, quindi adatte alle connessioni del tempo ( la maggior parte degli utenti web usavano ancora modem a 56KBs, solo poche aziende avevano la linea ISDN e la Tariffa Urbana a Tempo era ancora attiva sulle linee telefoniche).
Attualmente si usano i CSS e l'HTML5, con java script. 
Abbiamo abbandonato i fronzoli delle animazioni iniziali per dare più spazio ai contenuti e l'integrazione con i social network.
Sempre una maggior parte delle utenze internet utilizza anche dispositivi mobili, quindi la necessità è diventata quella di ottimizzare la visualizzazione su tablet e smartphone, così , come da una grafica ottimizzata per una risoluzione di 800x600 pixels siamo passati ad una di 1024x768, adesso passiamo ad una grafica fluida che si adatta a dispositivi mobili ed a schermi HD che arrivano anche 1600pixels.
Il web è come un essere vivente che si evolve. Un media che, a differenza della radio, della televisione o dei giornali, continua a crescere e cambiare.
Tornando al 1986 solo pochi scrittori di fantascienza ( tra i quali William Gibson esponente di spicco del filone cyberpunk. ) potevano immaginare quale futuro ci aspettava. 
In questa rubrica ho parlato spesse volte di tecnologie web che nascono, fanno il loro exploit e poi spariscono, lasciando però una traccia indelebile ed una guida per il futuro.
È del futuro del web che adesso parlo. 
Possiamo fare scenari ed ipotizzare come la nostra vita potrà cambiare, ma non possiamo esserne certi. 
Con l'avvento delle connessioni ADSL e FLAT sempre più persone hanno accesso al web e di queste sempre più si esprimono tramite questo mezzo, influenzandone le tendenze.
Il fatto di essere un mezzo di comunicazione a due vie (ricevo informazioni ma ne mando anche) porterà internet ad essere una specie di coscienza collettiva di grande magazzino dove si attinge agli archetipi societari.
Nessuno poteva immaginare il successo dei Social Network come Facebook e Twitter e l'influenza che hanno avuto nella vita di tutti i giorni o il declino di siti come Second Life, che invece si prevedeva avrebbe raggiunto milioni di utenti attivi.
Il futuro è da scrivere e se gli anni '90 hanno rappresentato il momento di boom di internet, il XXI secolo rappresenterà la sua età matura.
Per finire, riporto le parole del Professor Pelanda all'inizio del nostro rapporto di collaborazione:
"… Dipinta questa, metterei accanto il viso di Filippo, giovante tecnico computer veronese. Si è offerto di costruire il sito (www.carlopelanda.com) dove tra poco sbatterò tutte le mie pubblicazioni e farò pubblicità alla mia attività (scenaristica). Stavo per firmare il contratto con un'azienda milanese che mi proponeva la realizzazione del sito (complesso e non solo una semplice videata web) ad un buon prezzo ed in pochi giorni. Ma ho assunto Filippo, che mi costa un po' di più e allunga di tre mesi i tempi perché non ha ancora un'esperienza di questi lavori, pur geniale tecnico. Sono rimasto affascinato dalla sua volontà di imparare questo mestiere e colpito dalla mancanza di risorse educative che glielo insegnassero, qui nella nostra zona. Abbiamo fatto un patto: impara lavorando ed io accetto il rischio. In cambio mi assisterà nella gestione futura del sito a costi inferiori a quelli di mercato. Ed il suo viso – simpaticissimo e concentrato, teso nello sforzo – possiamo metterlo tra l'immagine ansiosa detta sopra e lo scenario piacevole di sfondo futuro." 
(L'Arena 20/04/2000)

Casus Belli

Apple e FBI sono ai ferri corti: da una parte l’azienda di Cupertino si rifiuta di “creare” un backdoor  per accedere ai dati contenuti  nel IPhone del terrorista Syed Farook responsabile della strage di San Bernardino, dall’altra l’agenzia governativa che con la pretesa di dover garantire la sicurezza dello stato vuole avere accesso a quei dati.

Certo, dopo le accuse di  Jonathan Zdziarski (autore del jailbreak per I/os)  che sospettava Apple di inserire dei  backdoor per “spiare” i dati personali degli utenti l’azienda guidata da Tim Cook deve fare tutto per assicurare gli utenti che i suoi dispositivi sono sicuri.
Visto da questa angolazione le scelte di non cooperare della Apple potrebbero apparire come una mossa  commerciale -“ I nostri dispositivi sono i più sicuri!”-,  e molte aziende dell’ IT si sono schierate con l’azienda di Copertino; l’unica voce fuori dal coro sembra essere quella di Bill Gates  che prende le parti dell’ FBI, mentre la sua azienda  ( la Microsoft) si schiera apertamente con Apple.
In realtà è stato il tentativo di forzare l'accesso all'iPhone 5C di Syed Farook a chiudere per sempre ogni accesso alle preziose informazioni che ora l'Fbi vorrebbe ottenere con l'aiuto di Apple. 
Sembra quasi che l’FBI abbia creato questo caso ad oc per poter chiedere degli strumenti  (sia legali sia informatici) per avere l’accesso ai dati personali dei cittadini americani.

Casus Belli

 

 

Nel 2010, quando gli Emirati Arabi Uniti e molti altri paesi avevano manifestato l’idea di mettere al bando alcuni servizi di telefonia associati agli smartphone Blackberry , l’allora segretario di stato Hillary Clinton, in rappresentanza del governo degli Stati Uniti,  si era prodigata in favore della libertà degli utenti sull’utilizzo dei servizi che ne garantivano la privacy.

A questo punto ci si potrebbe chiedere:  spetta alle aziende o agli stati proteggere la nostra privacy?  Fino a che punto la nostra privacy va tutelata in rapporto alla sicurezza nazionale? Se la stessa richiesta fosse giunta da un paese come la Cina cosa avrebbe fatto Apple?
Certo con i se non si fa la storia ma queste domande, direi sono più che legittime.

Alle prime due domande la risposta, dettata dal buon senso, è molto semplice:  gli stati dovrebbero tutelare la privacy dei cittadini con delle leggi, le aziende dovrebbero applicare queste leggi, che dovrebbero però sempre essere al servizio dello stato che rappresenta tutti noi.

Per l’ultima domanda la risposta si fa più interessante.
Iniziamo col dire che secondo gli analisti, nell'ultimo trimestre dell'anno 2015  ci sarebbero 2 milioni di pezzi di differenza tra le vendite di Iphone in Cina e quelle negli Stati Uniti: la Cina ha pesato per il 36% delle consegne di iPhone, contro il 24% accreditato agli Stati Uniti.
Questo risultato è stato ottenuto da Apple anche grazie all’aver assecondato alcune richieste del Governo di Pechino, per esempio usando data center con sede in Cina e incorporando uno standard cinese sul WiFi. Tutto questo ha sollevato forti critiche ed Apple che è stata accusata di chiudere un occhio sulle ingerenze del Governo nella privacy degli utenti per salvaguardare i propri interessi in quel paese.
Non è errato pensare quindi che se la stessa richiesta fosse stata fatta dal governo Cinese Apple avrebbe potuto accettare un simile accordo ( magari senza farne tanta pubblicità). 
Infondo qualcosa di simile accade già: dal 2014 la società di Cupertino ha infatti iniziato a memorizzare i dati dei propri utenti cinesi sul data center di China Telecom (una società di telecomunicazioni cinese a gestione statale), che è diventato l'unico fornitore in Cina di servizi cloud per la Apple. 
La stessa Apple sostiene che i dati degli utenti sono criptati, ma gli esperti facnno notare che China Telecom ha l’accesso a tutti i dati che passano sui server e quindi ha la possibilità di decifrare i dati sul proprio sistema.
Per finire nel gennaio 2015 Tim Cook  ha incontrato Lu Wei, direttore dell'Ufficio Informazioni di Internet della Cina, ente preposto della censura della rete cinese. 
Stando a quanto si dice, Cook avrebbe espresso alla controparte cinese il suo reciso rifiuto a fornire una backdoor a terze parti o un accesso alle informazioni. Ma la replica secca di Wu non si sarebbe fatta attendere: «quello che dici non ha alcun valore. I vostri nuovi prodotti devono essere sottoposti alle nostre ispezioni di sicurezza. Dobbiamo validare i vostri prodotti, in modo che gli utenti possano sentirsi sicuri nell'utilizzo di questi prodotti». 
In realtà non è chiaro cosa sia effettivamente successo. Ma, come riporta il Los Angeles Times, le autorità cinesi hanno comunicato nel gennaio 2015 che Apple è diventata la prima azienda straniera ad accettare le regole del Cyberspace Administration of China, l'organo centrale preposto alla censura in Cina.

Da queste piccole riflessioni possiamo capire che la mossa di Apple sia principalmente propagandistica nei confronti dei suoi prodotti mentre, in realtà, non ha alcun interesse a tutelare la privacy.
Dall’altro lato vediamo che i governi democratici si trovano sempre più in difficoltà con le nuove tecnologie a tutelare la sicurezza  dello stato e nel contempo a rispettare i diritti dei propri cittadini,  a differenza di governi totalitari o repressivi.

Perchè la Microsoft rimonterà nel mercato dei dispositivi mobili

L'uscita di Windows10 non è rappresenta solamente una nuova ed evoluta versione del precedente sistema ma anche una nuova strategia della casa di Redmond per rilanciarsi nel mercato dei dispositivi mobili dopo poco edificante esperienza degli anni passati.

Il fatto che il sistema operativo possa offrire la stessa esperienza di utilizzo sia sul computer, che sul tablet, che sul telefono sicuramente aiuta parecchio, ed anche il fatto che adesso le app possono essere le stesse aiuta parecchio l'utente a non sentirsi spaesato passando da un dispositivo ad un altro: Outlook, Calendario, Contatti, Office in versione touch, Foto. Ogni applicazione avrà la stessa interfaccia su PC, su laptop con schermo touch oppure su smartphone; Centro Notifiche è sincronizzato con quello PC ed anche il pacchetto office sarà lo stesso.
Una soluzione simile l'aveva, in vero, già intrapresa google, ma qua la cosa è diversa e più articolata.
Un'altra cosa che potrà aiutare la Microsoft a recuperare il terreno perduto è il fatto che il sistema operativo Windows10 non ha bisogno di grandi risorse (consiglio di leggere il mio precedente 
articolo su windows10) e questo permette di immettere sul mercato device e computer a prezzi più bassi.
Basta fare un giro su Amazon o nei grandi centri di distribuzione e ci si accorge che vi sono offerte per tablet che partono da 50,00 € con caratteristiche interessanti (Processore Atom Z3735G Quad-Core 1.83GHz Display multitouch da 7 pollici 1024x600pixel Memoria interna 16GB Wi-Fi 802.11b/g/n - Doppia fotocamera Sistema operativo Windows 10 Home) o portatili a partire da 190,00€.

Concludendo sembra che la Microsoft stia tentando di entrare in un mercato che è al momento è appannaggio di Google e Apple in maniera molto incisiva, se avrà successo solo il mercato stesso ce lo dirà ma non è esclusa che combinazione prezzo interessante ed usabilità potrò premiare la Microsoft come ha fatto Android con Google, forse a scapito proprio della casa di Mountain View, piuttosto che della casa di Cupertino che comunque è rappresenta un settore di mercato a parte.

30 anni fa una piccola rivoluzione

AMIGAPer un hacker "craccare" il primo programma è un po' come fare l'amore per la prima volta. 
Nel mio caso il programma in quetione era " Clonato C1 Text Editor", un editor di testi per piattaforma AMIGA, e quel computer rimarrà sempre nel mio cuore. Mi sembra quindi doveroso ricordare a 30 anni dalla nascita questo magnifico computer che era una perfetta ( a parte il famoso Guru Meditation che compariva ogni tanto) integrazione hardware e software…

Era il 23 Luglio 1985 quando venne commercializzato il primo computer della famiglia AMIGA con padrino Andy Warhol; un anno prima Apple aveva presentato il primo Mac, a gennaio Atari aveva presentato il modello ST e nello stesso periodo Microsoft iniziava a proporre il suo MS-DOS su PC IBM compatibili con monitor monocromatico.
Erano anni di grande fervore nel mercato dei micro e personal computer, e ogni produttore aveva un suo sistema operativo ed un suo hardware.
Ma cosa c'era allora di nuovo in questo computer?
Sotto molti aspetti questo nuovo computer era avanti di anni rispetto ai concorrenti: il sistema operativo Già nella sua prima release 1.0 presentava il multitasking preemptive ( Microsoft Windows solo nel 1995, e Mac OS X nel 2001 ), un'interfaccia grafica a finestre ed icone a colori, per ogni programma in funzione uno schermo grafico dotato di caratteristiche indipendenti. Un anno dopo, con la release 1.2, Amiga implementò il "plug and play", caratteristica che Microsoft ha poi introdusse nel proprio sistema operativo per personal computer solo dieci anni dopo.
Da un punto di vista Hardware le innovazioni non erano da meno: Il processore era un Motorola 68000, l'insieme di circuiti integrati di una scheda madre che si occupano di smistare e dirigere il traffico di informazioni passante attraverso il bus di sistema, fra CPU, RAM e controller delle periferiche di ingresso/uscita, era composto da 3 chip custom: Denise, Agnus( poi Fat Agnus) e Paula.
Denise era il chip che si occupava della grafica arrivando ad avere palette di 32 colori da 4096; la risoluzione andava da 320x512 a 4096 colori, a 640x512 a 16 colori. Ricordiamo tra i rivali il Mac era in bianco e nero, l'Atari ST 16 colori, i primi compatibili erano monocromatici oppure arrivavano a 256 colori massimo.
Agnus ( ed il suo succecssore Fat Agnus) si occupava dell'accesso alla memoria. A seconda del modello furono utilizzate versioni in grado di indirizzare fino a 512 kB di Chip RAM, altre in grado di indirizzare fino a 1 MB di RAM (Amiga 2000).
Paula integrava in sé diverse funzioni, tra cui l'audio e le porte Input/Output. L'audio forniva 4 canali PCM a 8 bit, in modalità stereo (2 sul canale destro, 2 sul sinistro).
La RAM poteva arrivare fino a 1Mb (1024Kb); il modello 68000 aveva un accesso a 16 bit alla memoria, anche se poi questa memoria era indirizzata a 24 bit e "ragionava" a 32 bit nei registri interni. I programmatori distinguevano fra parole "word" di 16 bit e "long word" a 32 bit. Per questo motivo Amiga non si può definire né un semplice sistema a 16 bit, né un vero sistema a 32 bit.
Il floppy disk era da 3.5" con una capacità di 880Kb ( i PC compatibili avevano floppy da 5.14" a 512Kb o 3.5" a 720Kb)
L'AMIGA 2000 aveva la possibilità di installare schede di espansione varie, tra le quali la possibilità di installare Hard disk SCSI, Schede Genlock e la scheda la "BridgeBoard" che permetteva di trasformare il computer in un vero e proprio PC compatibile con processore 8088 o 8086.
Da queste caratteristiche si può vedere perché a 30 anni dalla nascita, molti magazine di informatica ed elettronica abbiano dedicato righe al ricordo di questo computer rivoluzionario, che ha realmente cambiato il mondo dei computer: La rai usava una serie di AMIGA in parallelo in un noto programma della Carrà per il gioco da casa, le serie fantascientifiche "babylon 5" e "SeaQuest DSV" facro uso di questa piattaforma per le animazioni in computer grafica, molti grafici la usarono per il rendering 3D.
Ma come è accaduto che un sistema così moderno avesse un declino così veloce e finisse nel dimenticatoio?
Il motivi sono molti ma prima di tutto va considerato che il sistema AMIGA era un sistema proprietario e quindi solo lo Commodore poteva produrlo; a differenza dei computer PC compatibili che venivano assemblati da diversi produttori e così il mercato elesse i PC come dominatori assoluti.
Altre due cause che portarono al fallimento Commodore International nel 1994 furono: il Commodore CDTV e l'Amiga CD 32. Il primo, che fu commercializzato dal 1991 al 1993, era un lettore stand-alone di CD-ROM a contenuti multimediali e interattivi, nonché un lettore stand-alone di CD Audio, CD+G, CD+MIDI e Photo CD. Il dispositivo era considerato praticamente un computer, in quanto basato su piattaforma informatica Amiga: in particolare, si trattò del primo computer commercializzato con un lettore CD-ROM, ed in Italia venne venduto abbinato all'enciclopedia Groolied su CD. Nonostante ciò il Commodore CDTV fu purtroppo un fallimento commerciale. L' Amiga CD 32 era una piattaforma pensata per concorrere nel mercato delle console a 16 bit che in quel periodo andavano molto e superavano in vendite i modelli Amiga. La console vantava del supporto CD-ROM per i videogiochi, cosa che garantì alla macchina un ottimo successo iniziale; inoltre fu la prima Amiga a sfruttare la grafica tridimensionale che in quel periodo si stava diffondendo molto rapidamente. I problemi iniziarono nel Dicembre del 1994, con l'arrivo di PlayStation, che surclassò Amiga CD 32 portando la console e la generazione Amiga al declino.
E così la a marzo del 1994 la Commodore ufficializza le gravi difficoltà finanziarie e nel giro di 24 ore le azioni crollano da 28$ a 0,75$, costringendo la borsa a sospendere la trattazione dei titoli. Pur continuando a produrre l'Amiga 4000, Amiga 1200 e l'Amiga CD32 l'anno si chiude con l'inevitabile dichiarazione fallimentare, causata principalmente dalla forte pressione dei creditor.
Da allora inizia un passaggio di proprietà dei diritti continuo nel tentativo di far rinascere almeno il sistema operativo, ma, nel '97 si passa all'asta fallimentare dove i nomi "Amiga" e "Commodore" vengono definitivamente separati.
A giugno 2015 si è tenuta ad Amsterdam, presso il "Computer History Museum" la festa per il trentennale di Amiga.
Forse, come la fenice, vi sarà una rinasictà?

Start è tornato

windows
Per Terry Myerson, responsabile dei sistemi operative Microsoft, windows 10 sarà il miglior sistema operativo di sempre.
In effetti ,quello che Microsoft ha presentato a San Francisco alla fine di settembre, è uno dei più ambiziosi progetti della casa di Redmond: Creare una piattaforma unica che possa andare bene per tutti i dispositivi, dai PC ai smartphone e tablet.
Per gli utenti Pc la cosa più interessante è sicuramente il ritorno del tasto START, la cui scomparsa aveva tanto fatto infuriare gli utenti di Windows8.
Il menù start di windows10 è un evoluzione dei precedenti: prima di tutto potrà essere completamente personalizzato e questo, non solo nei contenuti, ma anche nelle dimensioni e nelle applicazioni Modern in esso contenute; sempre il menù start fonda, finalmente, due mondi di windows: quello dei programmi tradizionali con vista a menu e quello delle app accessibili attraverso le mattonelle animate; con un solo clic si ha la possibilità di accedere alle funzioni e ai file più utilizzati. Per finire include un nuovo spazio da personalizzare con le app, i programmi, i contatti ed i siti web preferiti.
Un'altra innovazione ( per gli utenti Microsoft) è la presenza di desktop virtuali.
Chi usa altri sistemi ( Linux) sa già di cosa stiamo parlando: questa tecnica permette di simulare la presenza di più desktops indipendenti in modo da avere teoricamente sempre una schermata più o meno libera a disposizione;come avere diversi monitor in uno solo.
Un altro passo indietro, se così vogliamo chiamarlo, è il ritorno alle finestre: le app adesso possono essere aperte nello stesso formato dei programmi desktop. ( si possono ridimensionare e spostare, hanno una barra di comandi che consente di ingrandire, ridurre a icona e chiudere l'app con un clic come tutte i programmi desk).
C'è poi il tasto Task view, che permette di vedere tutti i task e file aperti, per poter passare velocemente da uno all'altro.
Confrontandolo con il suo predecessore (windows8) un'altra delle differenze è la scomparsa delle barre laterali, che tanto davano fastidio agli utenti e che, a volte, si aprivano per sbaglio, come pure la tanto odiata schermata metro.
Da un punto di vista tecnico il sistema risulta molto veloce anche su computer che hanno solamente 2Gb di memoria.
A conti fatti il nuovo sistema microsoft sembra, finalmente, essere qualcosa di innovativo che, si spera, farà smettere di rimpiangere il glorioso windows Xp. Purtroppo prima di vederlo dovremmo aspettare il 2015 e non sappiamo bene quando, visto che non abbiamo ancora date certe per il rilascio.
Il mio consiglio, a chi ha in mente di cambiare computer e di rimanere su un sistema microsoft, è di aspettare l'uscita dei computer che montano già il nuovo windows10 di serie, visto che ultimamente si trovano (nella grande distribuzione) solo computer con window8 e difficilmente con windows7

Naked Ios

NakedIOSSembra un giallo eppure il botta e risposta tra Apple e l‘esperto Jonathan Zdziarski (autore del jailbreak, esperto forense informatica, consulente per la sicurezza del Governo Americano, ex hacker con il nickname NerveGas) non accenna a finire. 
Zdziarski denuncia che l’iPhone conterrebbe backdoor per “spiare” i dati personali; a queste denunce Apple ha risposto con un documento nel quale spiega alcuni dei processi incriminati. Zdziarski accusa Apple di aver pubblicato solamente la descrizione tecnica solamente di alcuni processi e non di tutti.
Per gettare un poco di acqua sul fuoco, diciamo subito che gli utenti di Smartphone o tablet targati Apple non devono spaventarsi: sembra che solamente Apple od un ente ufficiale possa utilizzare queste falle.
In un discorso durante la conferenza Planet Earth a New York l’esperto in sicurezza ha affermato che i servizi non documentati verrebbero avviati regolarmente in background su oltre 600 milioni di dispositivi iOS, ed è probabile che alcuni dati vengano inviati direttamente ad Apple. 
Cosa significa tutto questo? In breve, Zdziarski ha dimostrato che tali servizi potrebbero essere utilizzati per prendere prove utili per gli inquirenti direttamente dagli iPhone e dagli iPad, senza che l’utente possa mai accorgersene. L’esperto afferma che iOS è “molto sicuro” e che questi dati sono praticamente inaccessibili per un malintenzionato. Apple e, su richiesta, il governo, possono invece accedervi con estrema facilità.
Certo questa non è una buona notizia per Apple, anche perché già all’inizio del mese di luglio 2014 era stata comunicata una falla sulla app Gmail per iOS che esponeva al rischio di attacchi hacker che permettevano di monitorare le comunicazioni di posta elettronica, anche se crittografate e prima ancora aveva visto molti utenti del melafonino attaccati da ransomware mobile, un tipo di malware che limita l'uso del dispositivo infettato e richiede un riscatto all'utente finale per poterne riprendere il controllo.
Tornando ai servizi incriminati uno dei servizi evidenziati da Zdziarski è il packet sniffer denominato com.apple.pcapd che permetterebbe di inviare tutti i dati internet in ingresso ed uscita del dispositivo
Controllato a quello ad esempio utilizzato dalle autorità.
A queste accuse, come detto precedentemente, Apple risponde con un documento che smentisce stessi punti esposti dall’hacker e spiega alcuni dei servizi accusati.

  • Il primo servizio com.apple.mobile.pcapd serve per la raccolta di informazioni relative a diagnosi e a risoluzioni dei problemi, ma tale raccolta viene effettuata tramite un computer sicuro.
  • Il secondo servizio com.apple.mobile.mobile.file_relay non ha accesso né ai dati di backup né ai dati dell’utente rispettando quindi i canoni di sicurezza di iOS.
  • Il terzo servizio com.apple.mobile.house_arrest, viene infine utilizzato come metodo di comunicazione tra iOS e app che supportano questa funzione.

Gli ingegneri Apple e il personale Apple Care possono si utilizzare il servizio per determinare le configurazioni del dispositivo ma solo dopo aver ottenuto il consenso dell’utente (sempre che l’utente capisca a cosa acconsente aggiungo io). In ogni caso il consenso dell’utente è una condizione essenziale per l’attivazione dei servizi sopra elencati (pena la non fruibilità completa del telefono).
Ciò che Zdziarski tende a sottolineare (con tanto di screenshot) è che questi pacchetti non solo sono presenti su tutti i dispositivi, ma che possono essere eseguiti senza alcuna indicazione visiva per l’utente.
Più di una volta Apple ha dichiarato che la NSA, come qualsiasi altra organizzazione governativa, non ha accesso ai dati degli utenti, promuovendo la sicurezza e la privacy garantita durante l’uso dei dispositivi iOS.
I risultati di Zdziarski, sembrano mostrare tutto il contrario, se poi aggiungiamo il fatto che Apple, come tutte le aziende americane, è sottoposta al Patriot Act e che è chiamata per obbligo a cedere i dati che l’utente vuole mantenere riservati al Governo Americano.
Le backdoor, in questo caso, non sono che uno strumento messo a disposizione dal produttore che non dovrebbe costituire un pericolo per i consumatori. Tuttavia, la loro sola presenza comporta, in potenza, un rischio: se il ‘personale autorizzato’ riesce ad entrare senza problemi, chi ci dice che non possa farlo qualcun altro?
Non sorprende quindi che il governo cinese, tramite la Tv di stato CCTV (China Central Television) sia arrivato a sostenere che l’iPhone sarebbe un pericolo per la sicurezza dei cittadini e che abbia deciso di lanciare una campagna contro la sicurezza di Apple: a preoccupare il governo cinese è il fatto che posseggono un iPhone molti funzionari del governo cinese e diversi top manager di alcune tra le più importanti aziende cinese che potrebbero quindi avere inserito nel loro dispositivo dati di tutto rispetto.

Il pericolo IE

Secondo una ricerca di "Bromium Labs" il browser Internet Explorer è quello che ha subito, nei primi 6 mesi del 2014, il maggior numero di attacchi informatici. A peggiorare la situazione vi è anche il fatto che Internet Explorer sia anche quello con il maggior numero di vulnerabilità.
Questo ha portato sia il governo Americano che quello Inglese a consigliare ai propri cittadini di considerare delle alternative al browser di casa Microsoft: secondo NetMarket Share, infatti, Internet explorer (dalla versione 6 alla 11) è il browser più usato.
La United States Computer Emergence Readiness Team (US-CERT), afferma che le vulnerabilità "could lead to the complete compromise of an affected system".
Il giornale inglese "The Telegraph" ha consultato diversi specialisti in sicurezza informatica provenienti da famose aziende specializzate ( Symantec, FireEye, Malwarebytes and AppSense ) e tutti sono dell'avviso che la soluzione migliore sia cambiare il browser.
Negli ultimi anni i programmatori di Redmond hanno lavorato parecchio sulla sicurezza del browser, tanto che molti hacker preferiscono concentrasi a sfruttare le falle di altre applicazioni (Java in primis, seguito da Flash).
Anche i programmatori di Oracle hanno lavorato parecchio tanto che Java VM nei primi sei mesi del 2014 java non ha subito attacchi "Zero Day" a differenza dell'anno precedende.
Vediamo adesso alcune alternative:
Tra le più considerate dagli utenti sono quelle di Firefox e Chrome. Entrambi i browser, che nell'anno precedente contenevano diverse vulnerabilità, nel 2014 hanno visto le vulnerabilità scendere vertiginosamente.
Altre alternative che possono essere prese in considerazione sono l'uso di Safari oppure Opera, a scapito però, di una certa perdita di compatibilità con alcuni siti web.
Rimane sempre il rischio di usare applicazioni, all'interno del browser, che usano Java o Flash.
E tornando a Java e Crhome ci tengo a sottolineare che entrambi detenevano il record di vulnerabilità del 2013, mentre quest'anno sembrano aver ridotto decisamente la cifra tanto che, ad oggi (luglio 2014), non sono stati segnalati attacchi pubblici mentre lo scorso anno erano stati undici. ''La nostra previsione - concludono gli esperti di Bromium - è che Explorer continuerà ad essere l'obiettivo preferito dagli hacker per tutto il resto dell'anno''. 
Queste vulnerabilità di explorer sono particolarmente pericolose per gli utenti (ancora molti) che continuano ad usare Windows XP, in quanto la Microsoft ha terminato il supporto per tale sistema operativo.
La mia considerazione è che l'essere il principale produttore di sistemi operativi e del browser di maggior diffusione dovrebbe portare ad aver una maggior considerazione per i propri utenti/clienti senza abbandonarli od obbligarli a spendere centinaia di euro per aggiornare un sistema operativo per aver la sicurezza.

RIFERIMENTI: Bromium LabsNetMarket Share

E' stato superato il test di Turing?

  In ricordo di Alan Turing ucciso dall'ignoranza e dalla bigotteria

TuringI propose to consider the question, “Can machines think?”  This should begin with definitions of the meaning of the terms “machine” and “think”.
In questo modo, nel 1950 Alan Turing iniziava il suo saggio: “Comupting Machinary and Intelligence” sulla rivista Mind.
Da questo papper Turing sviluppo un procedimento di pensiero per determinare se una macchina fosse in grado di pensare: per Turing una macchina in grado di pensare è una macchina che sia capace di concatenare idee e quindi di esprimerle.
In questa sede tralasciamo la spiegazione del test ( chi fosse interessato può tranquillamente scaricare tutto il papper a questo indirizzo: 
http://orium.pw/paper/turingai.pdf ) 
Dal 1950 i parametri per il Test di Turing sono stati riformulati, sia perché originariamente troppo imprecisi, sia perché sono insorte nuove definizioni di macchina intelligente, come nel caso di ELIZA (1966), dove un software era  in grado, tramite la riformulazione delle affermazioni di una persona, a porre delle domande che potevano indurre a pensare che l'interlocutore non fosse un computer ma un essere umano.
Sabato 6 giugno 2014 si è svolto presso la Royal Society una gara tra 5 programmi,  con l'intento di superare il Test di Turing:  i programmi dovevano rispondere, per interposta tastiera, a dei giudici umani, durante sessioni di discussione di cinque minuti. Al termine di questi scambi, stava ai giudici decidere se il loro interlocutore fosse un umano o un robot. Se il programma informatico fosse riuscito a convincere almeno il 30% degli umani, il test sarebbe stato da considerarsi riuscito.
Di questi, soltanto “Eugene” è riuscito a passare il test con successo, convincendo il 33% dei giudici. La differenza, rispetto al le altre volte che il test di Turing venne considerato superato e quella del giugno 2014, è che gli argomenti di discussione, in questa prova, non vennero definiti prima di iniziare il test. 
In realtà le critiche non sono mancate: il programma si fingeva un adolescente e questa interpretazione del test ne avrebbe facilitato la riuscita poiché gli interlocutori umani tendono ad attribuire più facilmente all’età un tipo di comunicazione poco ortodosso. Anche la scelta della nazionalità fittizia è stata oggetto di critiche, in quanto avrebbe portato i giudici a ritenere le disfunzioni sintattiche come conseguenza del fatto che il ragazzo non fosse di madrelingua inglese. Infine, per il momento l’articolo scientifico coi dettagli dell’esperimento non è ancora stato pubblicato, e l’università di Reading non ha voluto fornire alcuna copia delle conversazioni ai giornali. Si parla di circa 300 conversazioni con 30 giudici tra i quali dei famosi nomi nel campo dell'intelligenza artificiale.
C'è quindi da pensare che un software non possa essere scambiato per un essere umano, ma che, invece, ciò sia possibile solo in determinate e limitate condizioni e solo per una minoranza di casi (il famoso 30% che dovrebbe essere portato almeno a 56% secondo alcuni esperti).
Concludendo possiamo farci una domanda: ha ancora senso il Test di Turing? La domanda iniziale: “Can a Machines think?” è ancora valida quando ancora non abbiamo consapevolezza di cosa si intenda per pensiero?
Ognuno di noi, quando conversa con un chatbot (programmi come ad esempio ELIZA che simulano una conversazione), ci proietta se stesso, mette in moto i circuiti dell’empatia, cercando di specchiarsi in quella relazione: vuole essere ingannato. Ma un’altra parte non accetterà mai che un sistema artificiale, per quanto sofisticato, possa essere in grado di pensare. 
In una puntata di Battlestar Galactica (una serie televisiva di fantascienza) una frase ci porta a riflettere sul Test di Turing, quando un umano, parlando con un Cylone dice: “Noi siamo umani, voi siete soltanto macchine”.
Insomma il tempo di  HAL 9000 (del film 2001 Odissea nello spazio) è ancora lontano ed il 2001 è passato da 13 anni...
«My mind is going. There is no question about it. I can feel it. I can feel it. I can feel it.
I'm afraid.
» 
(HAL9000 2001 Odissea nello spazio)

State of the Internet 2014 analisi del Photo Sharing

Questo mese l'analista Mary Meeker della società Kleiner Perkinsha rilasciato la sua tanto attesa presentazione sullo stato di internet (per chi sia interessato a consultarla il sito:http://www.kpcb.com/internet-trends) . Della presentazione, molto articolata, analizzeremo in questo articolo, solamente di alcune parti.
Il 25% del traffico web è ormai generato dai dispositivi mobili, trainato principalmente dai
video e dalle foto segno, a detta della Meeker, che i device mobili sono protagonisti di una 're-immaginazione' del web, per creare e condividere una gamma ampia e differenziata di informazioni; cresce, infatti, a ritmo sostenuto, la diffusione degli smartphone (+20% slide 4) soprattutto in mercati quali la Cina, l'India, il Brasile, anche se i dispositivi intelligenti rappresentano ancora solo il 30% dei 5,2 miliardi di device; i tablet hanno registrato una crescita del 52%, contribuendo all'aumento dell'81% del traffico generato dalle piattaforme mobili.
Un altro fatto è che la diffusione di internet sia diminuita del 10% rispetto all'anno precedente e stia crescendo, però, in mercati scarsamente redditizi come l'India, l'Indonesia, la Nigeria (slide 4 ).
Tra i trend più in crescita c'è quello della condivisione delle immagini: ogni giorno vengono scambiati dai device mobili 1,8 miliardi di foto.
Tra i sistemi operativi più usati dai device vediamo che, tra il 2005 ed il 2013 c'è stata la sparizione di Symbian e l'affermarsi (in maniera dirompente) di Android; mentre IOS rimane stabile (slide10).
Tra le applicazioni di messaging (slide 36) rimane al primo posto WhatsApp (ormai sul mercato da 4 anni), seguito da Tencent. Chiudono la classifica rispettivamente Snapchat e Viber.
Su questo punto è da notare che i dati si riferiscono al 2013, cioè prima che Facebook comperasse WhatsApp, bisognerà vedere l'anno prossimo quali saranno le ripercussioni sull'utilizzo dell'app.
Proseguendo nell'analisi delle slide (37) notiamo che c'è un evoluzione nell'evoluzione del "messagging": facebook rimane il mezzo preferito per inviare pochi messaggi/notizie ad un largo numero di contatti, mentre i programmi di messaging vengono principalmente usati per inviare messaggi ad un ristretto ( o solamente uno) numero di contatti.
Nella slide 62, in fine, viene mostrata l'evoluzione della comunicazione nello scambio di immagini dove snapchat la fa da padrone, con una formidabile crescita nello scambio di foto singole, seguito 
da WhatsApp.
Le implicazioni nate da questa veloce analisi sono molte ma vorrei soffermarmi, per adesso, alla crescita di snapchat e WhatsApp.
Snapchat permette di inviare immagini che rimangono sul dispositivo ricevente solamente per un limitato periodo di tempo. WhatsApp permette di inviare invece messaggi e foto a un solo contatto oppure ad un ristretto numero di contatti; entrambe le applicazioni, quindi, permettono di usufruire di una certa privaciy rispetto al altre forme di condivisione di contenuti.
Si desume che l'utente internet stia sempre più ricercando una propria privaci e che l'era del grande fratello (non Orweliano in questo caso ma televisivo) stia tramontando.
Rimane, comunque, sempre vero quello che aveva detto a suo tempo Kevin Mitnick detto "Condor" nel suo libro "L'arte dell'inganno": un computer sicuro è un computer spento, quindi bisogna sempre prestare attenzione ai contenuti che si condividono tramite internet.

Demenze giovanili (e non) al tempo di internet

La tecnologia influenza e trasforma la società, ne migliora la vita, garantisce il progresso ma ne condiziona, spesso, anche la condotta. 
Con il lento ma inesorabile calo del digital divide (il divario esistente tra chi ha accesso effettivo alle tecnologie dell'informazione in particolare personal computer e internet e chi ne è escluso), la comunicazione sta cambiando nei contenuti e nello stile: alle parole, sempre più spesso, si sostituiscono le immagini, alle idee i “re-post”  o i “Like”; alcuni comportamenti , che sono sempre esistiti, vengono esasperati e/o accentuati dall’uso dei nuovi media. Alcuni motociclisti ed automobilisti, ad esempio,  si divertono a postare video dove corrono, zigzagano e sfiorano altri utenti della strada, mentre viene inquadrato il contachilometri che tocca velocità impensabili.
Ultimamente si stanno sviluppando due nuove mode tra gli utenti di internet (soprattutto gli adolescenti) che hanno risvolti preoccupanti:  la “Neknomination” ed il “Knockout Game”.

Demenze Giovanili

 

Sebbene siano due sfide completamente diverse tra di loro hanno in comune che entrambe si sviluppano e si propagano tramite social network .
Il primo  (Neknomination) , nato in Australia, è la contrazione delle parole inglesi neck and nominate, ovvero collo e nomina (dove per collo si intende il collo della bottiglia)  e  consiste nel  filmarsi mentre si beve una pinta di una bevanda alcolica tutta d'un fiato e pubblicare il filmato sul web; l'autore del filmato dovrà inoltre nominare altri due amici, che avranno 24 ore di tempo per raccogliere la sfida ed eseguire a loro volta la bevuta. Chi non rispetta le regole una sera sarà costretto ad andare in un pub e offrire agli altri.
In  Paesi, come Inghilterra, Stati Uniti e Irlanda, questo gioco ha già fatto le sue vittime.  Almeno 5 ragazzi sarebbero morti dopo avervi partecipato e  tanti altri sono finiti in ospedale in coma etilico.
Su Facebook le pagine dedicate a questo gioco sono parecchie e, tutte, hanno parecchi LIKE come ad esempio questa pagina creata il 23/03/2014
https://www.facebook.com/pages/Neknomination/290173311139913.
Un ragazzo intervistato dall’Independent che per la sua NekNomination ha tracannato mezzo litro di sambuca in 10 secondi , oltre all’alcol poi, alcuni sfidano a compiere azioni proibite o pericolose , come è successo a John Byrnem,  morto per essere saltato in un fiume come parte della sua NekNomination.
Una ragazza inglese, pinta alla mano, si è ripresa mentre si spogliava nel bel mezzo di un negozio Asda.
Gruppi di genitori irlandesi e inglesi hanno già chiesto a gran voce al social network di mettere offline i video pubblicati e chiudere le pagine dedicate al gioco: da Facebook però hanno detto di no, perché di fatto il contenuto delle NekNomination non viola le regole di Cupertino.
Il gioco intanto si è evoluto e, adesso, ci si sfida non solo sulla quantità e velocità con cui si ingurgitano gli alcolici, ma anche sul modo più estremo di bere: così, c’è chi gusta birra dalla tazza del cesso facendo la verticale e chi tracanna bicchieri di vodka con dentro pesci rossi vivi. O ancora, chi si fa un frullato di gin e cibo per cani o peggio con un intero topo morto.
Il  Knockout Game, invece, consiste nello stendere con un solo pugno un ignaro passante e poi postare il video.
Il primo caso in Italia di knockout Game si è verificato a Favaro Veneto, per l'esattezza, appena fuori da un centro commerciale nel gennaio del 2014, mentre la prima vittima (morta) è stato un cameriere bengalese, 
Zakir Hoassini, morto dopo 24 ore di agonia per un pugno preso in faccia nel centro di Pisa.
Secondo alcuni psicologi questi comportamenti estremi esprimono un profondo bisogno di riconoscimento e di essere visti. I giovani sono alla ricerca di un attestato relativo alla loro identità, al loro valore e alla loro diversità rispetto agli adulti; in mancanza dei riti di passaggio, quelli che una volta sancivano l’ingresso nel mondo dei grandi e oggi in disuso, c’è la ricerca spasmodica di visibilità e di complicità fra coetanei.
Se prima dell’avvento di internet  e dei social network questi comportamenti estremi avvenivano in sordina, adesso i giovani usano la rete per manifestare questi loro atteggiamenti.

La fuga da Whatsapp

Fuga da whatsappFacebook ha comperato whatsapp, ma la notizia più interessante nell'affare è che l'acquisto è stato fatto per un costo astronomico rispetto al valore dell' App di messaggistica. Capire, perché una società che fattura 50 milioni di dollari possa essere pagata ben 19 miliardi è tuttora difficile.
Il prezzo è una semplice moltiplicazione: 

PREZZO = costo utente whatsapp * numero totale utilizzatori


Il capitale quindi non è valutato evidentemente solo in base al fatturato o alla capitalizzazione di borsa, bensì al capitale umano, cioè quanto posso guadagnare da un contatto che possiedo dal momento in cui questi è effettivamente attivo. A questo punto, interessante notare che molti utenti, in base a questo ragionamento, vedono minata la loro privacy nei confronti del servizio ed è iniziata una migrazione ( in massa direi) verso altre piattaforme.
A peggiorare la situazione il fatto che sabato 22 febbraio 2014 per ben cinque ore la piattaforma whatsapp è rimasta off-line, a detta dei tecnici, per il passaggio sui servers di FB.
Il garante della privacy tedesco , Thilo Weichert, in concomitanza con l'acquisto della società da parte di Facebook, ha rincarato la dose, invitando gli utenti di whatsapp a passare ad altre piattaforme.
Secondo Weichert, "WhatsApp è una forma di comunicazione insicura e ha gravi problemi di sicurezza e privacy."
Secondo il garante, entrambe le società hanno rifiutato di seguire le linee guida sulla privacy stabilite dall'Unione Europea. WhatsApp e Facebook hanno sede negli Stati Uniti, dove le leggi sulla protezione dei dati sono meno severe che in Europa.
La privacy policy di WhatsApp permette loro di condividere le informazioni con altri fornitori di servizi nell'ambito di scopi molto specifici e di utilizzare informazioni personali come i dati di utilizzo della connessione, le informazioni sul telefono, sull'indirizzo IP, e altri, così da migliorare la qualità del servizio e creare nuove funzionalità quando l'azienda lo ritiene opportuno, senza consultare i suoi utenti.
Inutilmente Zuckerberg cerca di tranquillizzare gli utenti dicendo che "La privacy su WhatsApp resta uguale, il servizio non cambierà. E' quello che la gente vuole, sarebbe stupido modificarla": dopo la notizia dell' acquisizione di whatsapp sono passati a Telegram ben 5 milioni di utenti ed a Line 2 milioni di utenti in sole 24 ore.
D'altronde WhatsApp è stato acquistato per ingrandire il bacino di utenza di Facebook; inoltre, acquistando WhatsApp, ha messo una seria ipoteca sul mondo mobile. Le applicazioni più diffuse per smartphone sono ora di proprietà di Zuckerber, e proprio questa sorta di monopolio pare aver messo in allarme più di qualche utente. Le domande più ricorrenti, sui blog sono: che cosa ne farà Zuckerberg di tutti questi dati? Zuckerberg riuscirà ad accedere anche ai dati che ci si scambia tramite messaggi? Le conversazioni verranno salvate nei loro server? 
A questo punto, invito i lettori di questo mio spazio che sono preoccupati per la loro privacy, a cercare altre alternative (ce ne sono molte completamente gratuite) e con più servizi e/o opzioni di whatsapp.
Di seguito una breve lista delle varie alternative:

App

IPhone

OS/X

Android

Windows

Black Berrry

Altro

Viber

X

X

X

X

X

Linux, Windows Phone8

Blackberry Messenger

X

 

X

 

X

 

Skype

X

X

X

X

X

Linux, Windows Phone

Line

X

X

X

X

X

Windows Phone, Nokia Asha, Firefox OS

Telegram

X

 

X

 

X

Windows Phone8

Tra tutte le alternative sembra che gli utenti di WhatsApp preferiscano Telegram per la privacy, anche se Viber o Skype permettono una maggior portabilità, dando la possibilità di installare il client anche su un normale computer.

La "Culona", Internet e l'NSA

Angela Merkel sarebbe estremamente favorevole alla creazione dell'Internet Europeo. Si tratta di un progetto realizzabile, ma molto costoso. E che, guarda caso, favorirebbe le aziende francesi e tedesche. Peccato solo che in questo modo potrebbero facilmente essere banditi da questo Internet Europeo realtà come Facebook, Google e Gmail, e quant'altro si voglia, come sta facendo la Cina e la Corea del Nord.
Il network europeo eviterebbe il passaggio di dati inviati con e-mail o in altro modo attraverso gli Stati Uniti, e quest' idea è fortemente propugnata da una Angela Merkel visibilmente colpita evidentemente sul piano personale dallo scandalo delle intercettazioni Nsa.
Quello che Frau Merkel non considera è che la forza di Internet è la sua globalità eregionalizzarlo vuol dire privare tutti gli utenti, principalmente quelli europei, di qualcosa, in termini di accessi, servizi, prodotti, capacità di comunicazione; evidentemente la signora Merkel ( cresciuta ad 80km da Berlino nella Repubblica Democratica Tedesca socialista) considera ancora la censura come la soluzione dei problemi e vorrebbe poter controllare la rete come la STASI faceva con i suoi connazionali negli anni della guerra fredda.
Da un punto di vista tecnico regionalizzare Internet è possibile, anche se immensamente costoso. Oltre ai filtri fisici sulle dorsali di accesso ci sarebbero da modificare tutti i protocolli di comunicazione; sarebbe quindi un sistema chiuso che comunica con l'esterno nei modi e nei contenuti che stabilisce d'autorità. Questo comunque non servirebbe a contenere le azioni di spionaggio, secondo Snowden ed altri esperti, da parte dei servizi segreti di altri paese: se qualcuno ha davvero interesse e utilità ad intercettare dati, può farlo ugualmente, non a caso l' Nsa intercetta comunque ciò che avviene in Cina.
Gli unici effetti reali di un Internet "europeo" sarebbero più o meno questi: molti servizi cloud non accessibili, alcune limitazioni a siti social come Facebook, molti servizi di Google, come Gmail, del tutto o in parte non accessibili, costi per le grandi aziende di adeguamento delle proprie reti dati,senza nessun beneficio particolare in termini di sicurezza.
Ma allora perché la "Culona" vuole chiudersi a riccio?
La realtà è molto semplice: per aggiornare l'infrastruttura esistente secondo le esigenze di Frau Merkel sarebbero necessari ingenti investimenti e lavori ed è facile pensare che i primi beneficiari di un simile provvedimento sarebbero le aziende tedesche e francesi, ed è per questo che il cancelliere tedesco vuole parlare di questo progetto principalmente con il presidente francese hollande. La mia speranza è che tutto rimanga come è adesso, non solo perché il cambiamento voluto dalla signora Merkel non porterebbe nessun reale vantaggio sul fronte della sicurezza, ma anche perché porterebbe ad una "censura" di tipo statale simile a quella di pese come Cina o Corea del nord.

Shodan è motore di ricerca più pericoloso?

Dal 2009 Shodan è uno dei motori di ricerca più utili agli hacker di tutto il mondo perché consente di ottenere velocemente informazioni riguardanti gli indirizzi IP di siti Web, servizi online, Webcam connesse e ogni altra attività Internet. 
Ma cosa fa e come funziona Shodan?
Ogni computer connesso a Internet o eventualmente dispositivo ha un indirizzo IP pubblico, quindi raggiungibile dall'esterno. Il motore di ricerca sapendo il range di indirizzi disponibili online in tutto il mondo, come un crawler fa una scansione automatica e cerca di connettersi a tutti. Per ogni IP a cui riesce a connettersi ne legge i cosiddetti banner ( ovvero i messaggi di benvenuto dei server); questi, per un pirata informatico sono come delle impronte digitali: sa che a quell'indirizzo IP corrisponde un server attivo, ne conosce la versione, di conseguenza eventuali falle e così via. 
Chi si ricorda il film "War Games" del 1983 (invito tutti vivamente a riguardarlo), certamente ha presente quando il giovane protagonista - Matthew Broderick – mostrava alla sua amica il metodo della "war-dialing", chiamava cioè tutti i numeri di telefono in un determinato range fino a quando non rispondeva un computer. 
Ecco Shodan fa la stessa cosa con gli IP, ma in più permette all'utilizzatore di personalizzare le ricerche; se ad esempio scrivessimo "OS/x city:"Verona" country:it" ci comparirebbe come ricerca solo nella città di Verona in Italia i server che corrispondono alla parola OS/X . 
Per utilizzare Shodan basta collegarsi al sito web (
http://www.shodanhq.com/) e registrarsi; quindi si utilizza come un comune motore di ricerca ( chi è abituato ad usare solamente google avrà qualche difficoltà all'inizio).
Shodan mi permette anche di impostare dei filtri :
after/ before: limita la ricerca ad un determinato range temporale ad esempio: before:20/03/2010 ( attenzione su usa la data nel formato inglese/americano gg/mm/aaaa)
city: il nome della città. Ad esempio: city:"Bologna" 
country: le due lettere che identificano il paese; ad esempio country:IT
geo: latitude and longitude permette di identificare un range geografico con i punti indicati con le coordinate di latitudine e longitudine.
Port: cerca solo server con determinate porte aperte
Os: Cerca I server con un determinato sistema operativo
Hostname: il nome completo o parziale di un host. 
Da questa breve spiegazione sulle possibili ricerche offerte da Shodan si evince che questo motore di ricerca, di per sé, non sarebbe pericoloso, ma , come detto all'inizio dell'articolo, permette ad un hacker anche principiante di acquisire informazioni utili ai suoi scopi.
Per finire ci tengo a ricordare una cosa: Un "vero" Hacker viola un sistema solo per il gusto di farlo e non per trarne un profitto personale. 

Shodan

Sexting: Difendiamo i minori

Il sexting consiste nell'invio elettronico, in primo luogo da telefoni cellulari, di messaggi o foto sessualmente esplicite; le persone lo fanno per mettersi in mostra, attirare qualcuno, dimostrare interesse verso qualcuno, dimostrare di essere impegnati in una relazione, o per ricevere qualche piccolo "dono" come ricariche telefoniche. Questa pratica, molto diffusa tra i giovani, risulta essere molto pericolosa per loro: una volta inviata una foto, non è più possibile gestirla né recuperarla. Il destinatario dell'immagine può inoltrarla, copiarla, pubblicarla online o condividerla con chiunque. Oltre al danno emotivo che può comportare la diffusione di un'immagine personale a sfondo sessuale nell'intera scuola o gruppo di amici, ci sono effetti negativi anche sulla reputazione. Da parecchio tempo il MOIGE (movimento italiano genitori) sta cercando di sensibilizzare gli adolescenti ( e bambini) sul pericolo di tale pratica: risulta infatti (dati Eurispes e Telefono Azzurro)che in Italia: 1 ragazzo su 4 ha fatto sexting almeno una volta, e nel 47% dei casi ha tra i 10 e i 14 anni Spesso sento dire che i genitori non possono diventare improvvisamente censori, non possono in ogni momento guardare cosa stanno facendo i loro bambini. Che è' impossibile, perché con gli smartphone i piccoli possono connettersi in qualunque momento, e che cercano invece di insegnare ai loro figli a stare "attenti" e "a non lasciarsi irretire dal mondo di internet". Queste sono le parole che spesso mi sono sentito dire, insieme a: "ma io mi fido di mio figlio, so che non farebbe mai una cosa simile". A leggere i dati della ricerca promossa dal Moige, il Movimento italiano genitori, e presentata alla vigilia del Safer Internet Day, la giornata voluta dalla Commissione Europea per la sicurezza dei giovani in Rete, «i minori sul web non studiano e fanno ricerche senza verificare le fonti; giocano e chattano con sconosciuti; scambiano foto hot, prendono in giro i coetanei» tutte «pericolose abitudini dei nostri figli sulla rete». Un ragazzo su cinque cerca di nascondere le tracce di quello che ha fatto al pc eliminando la cronologia del browser, l'11% dichiara di visitare siti per adulti. E ancora, il 28% ha fatto amicizia con estranei, consapevole di trasgredire, e il 30% non usa la propria identità quando è collegato in chat. Sei su 10 «non hanno problemi a dichiarare di essersi divertito nel ricevere o inviare foto o video hot (il cosiddetto sexting)», di questi il 22,7% li ha ricevuto da sconosciuti che inviano materiale imbarazzante. Di tutto ciò - sottolinea il Moige - i genitori spesso sono ignari. Uno su tre perché «poco attrezzato» all'utilizzo delle nuove tecnologie. Ma in generale gli adulti controllano - secondo la ricerca - in maniera «molto blanda»: solo il 18,6% in famiglia impone dei limiti ai propri figli sul tempo trascorso al computer e il 35% non si è mai posto problema. 

Il pericolo delle case Smart

Con la diffusione delle case intelligenti (frigoriferi che dialogano con il microonde che poi ti manda sullo smartphone la lista della spesa ) la maggior parte delle persone si preoccupa della possibile propagazione di virus attraverso questi dispositivi, tanto che alla fine dell'anno passato (2013) e inizio del presente (2014) diversi giornali nazionali lanciavano l'allarme ( es. repubblica del 20 gennaio 2014 ) In realtà la paura che le persone che fanno uso di questi dispositivi dovrebbero avere è ben altra: un vero hacker non entrerà mai nel vostro sistema per mandarvi spam o virus come riporta l'articolo di repubblica, ma entrerà nel sistema solo per il gusto di farlo ( come ogni hacker fa) e poi lascerebbe un ricordo della sua presenza, magari spegnendovi il frigo o accendendo il fornello oppure alzando il riscaldamento a 60° in pieno agosto. Vorrei portare l'esempio di Marc Gilbert, padre di 34 anni di una bambina di 2 anni, che è stato vittima di un hacker che , seppur virtualmente, si è insinuato in casa sua. L'uomo era tornato dalla propria festa di compleanno e stava per entrare nella camera di sua figlia per darle la buonanotte ma, mentre era ancora fuori, ha sentito chiaramente la voce di un uomo provenire dall'interno. Marc, che si è precipitato in camera in cerca di un aggressore che in realtà non c'era o meglio non nel senso letterale del termine. Tutto ciò che era presente in camera era una voce, tetra, che fuoriusciva dal baby monitor installato in camera e che ripeteva questa frase: "Wake up you little slut". Un uomo, dunque, la cui identità resta ignota, era riuscito a indicizzare l'indirizzo IP del baby monitor, riuscendo a vedere quanto accadeva in quella stanza, trasmettendo addirittura la sua voce. Ma come è possibile che questo possa succedere? Ogni computer connesso a Internet o eventualmente dispositivo ha un indirizzo IP pubblico, quindi raggiungibile dall'esterno. Il motore di ricerca sapendo il range di indirizzi disponibili online in tutto il mondo, come un crawler fa una scansione automatica e cerca di connettersi a tutti. Per ogni IP a cui riesce a connettersi ne legge i cosiddetti banner". Una volta interrogati posso fornire informazioni di vario genere: la tipologia e il nome del server web, il software adottato (Apache) e la versione, la geolocalizzazione, etc. E così di fatto si sa che a quell'indirizzo IP corrisponde un server attivo, magari web, conosce la versione e così via di conseguenza eventuali falle. Quindi, anche se il vostro Smartphone od il vostro frigorifero non compare su google quando fate una ricerca, non vuol dire che non sia presente sulla rete e che non sia rintracciabile. In un prossimo articolo parlerò del motore di ricerca più pericoloso al mondo, che permette appunto di rintracciare questi dispositivi collegati. 

case smart

8 Aprile 2014: la fine di XP

la fine di XPL' 8 aprile 2014 la microsoft terminerà il supporto a windows XP, dichiarando quindi la definitiva condanna a morte del sistema.
Windows Xp è stato uno dei maggiori successi della casa di Redmond e la fine del supporto vuol dire che non saranno quindi più disponibili gli aggiornamenti di sicurezza per proteggere il PC da virus, spyware e altri malware che possono creare problemi al funzionamento corretto dei PC o carpire informazioni personali; senza gli aggiornamenti di sicurezza per Windows XP, le informazioni contenute all'interno dei PC potrebbero diventare vulnerabili e a rischio.
XP è stato uno dei sistemi operativi preferiti dagli utenti, tanto che ancora oggi circa un buon 30% dei personal computer ha ancora il vecchio sistema operativo (1/3 dei sistemi windows attualmente usati) , preferito ai vari Vista e soprattutto all'ultimo nato (windows 8), che in casa Microsoft che non riesce a decollare con le vendite. Niente di strano, dunque, che con questa mossa, il colosso di Redmond stia cercando di dare slancio agli ultimi sistemi operativi immessi sul mercato. Chiaramente XP è un sistema nato per rispondere ad esigenze diverse da quelle richieste oggi e anche se gli aggiornamenti sono stati continui è normale che non possa avere le stesse potenzialità di un sistema nato oggi. Il problema più grande sarà per coloro i quali decideranno di restare fedeli ad XP. Essi saranno, infatti, maggiormente esposti agli attacchi degli hackers, non ricevendo più aggiornamenti sulla sicurezza e cosa non da poco anche a livello hardware e software con l'andare del tempo saranno sempre meno i prodotti compatibili col vecchio sistema operativo.
Un altro settore a rischio è quello dei bancomat; il 95% degli sportelli bancomat di tutto il mondo (secondo la rivista americana Bloomberg Businessweek) gira su piattaforma XP, e dunque va aggiornato a un nuovo sistema operativo o sostituito. Perché con lo stop alle consulenze da parte di Microsoft, Windows XP rischia di diventare un software decisamente più penetrabile. Gli attacchi malware diventeranno più semplici. La sicurezza degli sportelli ATM, insomma, sarà messa a dura prova. Per questo le banche stanno già correndo ai ripari.
Sono circa 3 milioni gli sportelli bancomat installati in tutto il mondo. E la maggior parte di questi ha un'età superiore ai vent'anni. Sono proprio questi ultimi quelli più a rischio. Mentre le macchine più recenti, infatti, potranno essere aggiornate a Windows 7 (o a un altro sistema operativo) da remoto, cioè senza un intervento fisico sullo sportello, per quelle più vecchie sarà necessaria un'operazione diretta sull'hardware. In questo caso sarà necessario un cospicuo investimento da parte delle banche. I grossi gruppi si stanno già muovendo. JP Morgan, ad esempio, ha già chiesto a Microsoft una consulenza prorogata per almeno tremila sportelli con piattaforma Windows XP.
Secondo Bloomberg, però, solamente il 15% degli sportelli ATM installati sul territorio degli Stati Uniti d'America sarà basato su sistema operativo Windows 7 al 9 aprile 2014. Col rimanente 85% a rischio attacco hacker.
Rimangono, in fine, tutti quei software verticali, studiati appositamente per determinati scopi, che non sempre sono compatibili con i nuovi sistemi operativi microsoft e che molte aziende hanno al loro interno.
Cosa si consiglia di fare?
L'effetto dei mancati aggiornamenti di sicurezza non sarà visibile immediatamente quando scadrà il supporto, soltanto che più il tempo passerà, più ci saranno rischi riguardo la sicurezza dei dati all'interno di quei computer.
Questo però può essere un problema soltanto se si continuerà ad utilizzare XP su un computer aziendale o da ufficio in cui vengono memorizzate informazioni sensibili.
Per gli utenti normali, i prezzi di Windows 7 e Windows 8 sono piuttosto alti e scoraggianti, a meno che non si acquisti un computer nuovo con il sistema già installato.
Gli utenti possono continuare a mantenere XP ancora per qualche anno, soprattutto se si stanno utilizzando computer vecchi e poco potenti.
Se invece vogliono mantenere i loro computer, anche se vecchi, in funzione e non vogliono rinunciare alla sicurezza, una valida alternativa è passare a Linux: tra le varie distribuzioni sicuramente se ne può trovare una adatta.
Se invece non si vuole rinunciare a windows il mio consiglio è di passare a windows 7, tralasciando windows8 che non è ancora maturo.

ECDL si evolve ma serve?

L' ECDL (European Computer Driving Licence), detta anche Patente europea per l'uso del computer, si evolve e dal 1 settembre 2013 è in vigore la "Nuova ECDL", ovvero una nuova famiglia di certificazioni ( proposta sempre da ECDL Foundation e AICA) destinata a sostituire progressivamente le attuali certificazioni ECDL Core, ECDL Start ed ECDL Advanced.
La nuova ECDL propone nuovi moduli e consente una maggiore flessibilità, in quanto il candidato può scegliere la combinazione di moduli che ritiene più interessante e utile e chiedere in ogni momento un certificato che attesti gli esami superati; inoltre viene posta particolare attenzione a nuove problematiche quali la sicurezza informatica, il web editing ecc.


Ma serve l'ECDL?
Quella della ECDL è una storia molto particolare. Se poi si guarda con attenzione ai cavilli si scopre che la patente non è nemmeno Europea: "non esiste alcun sistema di certificazione o di qualificazione europea", parola del commissario europeo Viviane Reding, in risposta ad una interrogazione del 2001 del deputato europeo Francesco Musetto. 
Prima di tutto va precisato che ECDL è una certificazione standard, ma non costituisce titolo legale di studio né si configura come qualifica professionale. Essa è paragonabile alle certificazioni riguardanti le conoscenze linguistiche (per esempio il TOEFL o il Cambridge Certificate per l'inglese) che fanno testo in tale campo in tutto il mondo. 
In Italia ha avuto una diffusione enorme all'inizio degli anni 2000 grazie all'operato di AICA, l'associazione non profit unica titolare riconosciuta a distribuire e conferire gli attestati con questa denominazione.
A livello burocratico, sebbene l' ECDL non abbia alcun valore di titolo di studio, viene riconosciuta nei concorsi pubblici o nei corsi universitari come punteggio aggiuntivo.
A questo punto è bene aprire una breve parentesi sui costi per ottenere la "patente" ECDL.
Dal sito dell' AICA (
http://www.aicanet.it/) si legge che Occorre fare una distinzione fra i costi della certificazione (che occorre obbligatoriamente sostenere), e i costi della formazione.
I costi della certificazione sono dati dal costo della Skills Card e dal costo relativo a ciascuno degli esami che il candidato deve sostenere: per la Skills Card è di € 60 da pagare al Test Center presso cui viene acquistata; per ogni singolo esame è di € 18 da pagare al Test Center presso il quale l'esame viene sostenuto; il totale, inclusivo della Skills Card e dei sette esami,in assenza di ripetizioni, è di € 186, il tutto iva esclusa.
Per quanto riguarda l'analogo prezzo medio praticato ai candidati non studenti, esso risulta di circa il 30% superiore a quelli sopracitati.
Visto che negli ultimi 10 anni l' AICA si è data molto da fare affinchè l'ECDL venisse riconosciuta nei concorsi pubblici e nelle università per acquisire punti, risulta che l'unico a guadagnarci sia appunto AICA e che si verifichino situazioni paradossali, come quella di Davide C.
Davide C. nel 2007 partecipò ad un concorso bandito dal comune di Novi Ligure per un posto di lavoro a tempo determinato come "Istruttore Informatico" categoria C.
Dal curriculum vitae di Davide C., tra le varie informazioni personali, si può leggere che ha conseguito la maturità scientifica, una Laurea in Informatica, una Laurea Magistrale in Informatica dei Sistemi Avanzati e dei Servizi di Rete con il punteggio di 110 e Lode, che era al terzo anno del corso di Laurea in Informatica Giuridica per conseguire un'ulteriore laurea, che era vincitore di una Borsa di Perfezionamento e Addestramento alla Ricerca, settore nel quale era attualmente ed entusiasticamente impegnato, presso il Dipartimento di Informatica dell'Università del Piemonte Orientale, ma che non aveva mai conseguito la Patente Europea del Computer (ECDL).
Il 18 e il 19 luglio Davide C. si presenta per svolgere le tre prove e, prima dell'ultimo esame gli vengono comunicati i punti assegnati in base ai Titoli. 
A fianco al suo nomelegge: Titoli di Studio e di Cultura = 0 (ZERO). Titoli di Curriculum = 0 (ZERO). 
La curiosità che lo aveva spinto a partecipare al concorso sale e, al termine della prova finale, chiede delucidazioni circa i punteggi attribuiti ai Titoli di Studio e Cultura. Gli viene riferito che avendo una maturità scientifica la Laurea Magistrale in Informatica della durata di 5 (cinque) anni è stata considerata come "requisito essenziale per l'ammissione alla selezione" e non come un titolo di studio più elevato in quanto non possessore di ECDL. 
Disorientato dalla risposta, Davide C. replica con chiarezza "se avessi conseguito la Patente Europea del Computer mi sarebbero stati assegnati punti per i Titoli di Studio in possesso?", la risposta chiara, sconcertante e monosillabica pronunciata dalla commissione è stata "SÌ".
Un "SÌ" che è sintomo dell'inquietante realtà che oggigiorno 60 ore di un corso base di computer possano equivalere non solo a un diploma di perito informatico ma a cinque anni di studi accademici!
Dopo questa incredibile storia, invito i lettori a provare uno qualunque, dei vari test online disponibili per verificare la propria preparazione all'esame ECDL ed a constatarne quanto siano inutili.
Concludendo, possiamo dire che la Patente Europea all'uso del computer non assicura di saper usare il computer ma di averne solo una conoscenza (spesso molto superficiale).

Per lal ibertà informatica dovremo tornare alle BBS?

Per la libertà informatica dovremmo tornare alle BBS?
È del mese passato (novembre 2013)la notizia che un provider internet può essere obbligato a bloccare ai suoi clienti l'accesso ad un sito che viola il diritto d'autore; questo è quanto afferma l'avvocato generale Cruz Villalon nelle conclusioni della causa tra l'internet provider austriaco UPC Telekabel Wien e società Constantin Film Verleih e Wega Film produktionsgesellschaft. 
In base al diritto dell'Unione gli Stati membri devono assicurare che i titolari dei diritti d'autore possano chiedere un provvedimento inibitorio nei confronti di intermediari i cui servizi siano utilizzati da terzi per violare i loro diritti.
Le conclusioni dell'avvocato generale in genere sono riprese nelle sentenze dei giudici Ue. In base al diritto dell'Unione gli Stati membri devono assicurare che i titolari dei diritti d'autore possano chiedere un provvedimento inibitorio nei confronti di intermediari i cui servizi siano utilizzati da un terzo per violare i loro diritti. I fornitori di accesso a internet vanno considerati come intermediari. Se la Corte Ue accoglierà le richieste dell'avvocato generale, gli internet provider europei potrebbero essere presto obbligati a bloccare ai propri clienti l'accesso ai siti che violano il diritto d'autore. 
Nella prassi i gestori di un sito internet illegale o tali internet provider di siti online operano di frequente al di fuori dei confini europei oppure occultano la loro identità, così da non poter essere perseguiti.
Il fatto di obbligare un internet provider a "bloccare" determinati siti è da considerarsi l'inizio della censura sulla rete globale. Forse che dopo Cina, Iran e altri paese definiti "non democratici" tocchi anche alla liberale Europa iniziare la campagna di censura su internet?
È giusto tutelare i diritti d'autore ma, iniziando a obbligare i provider a bloccare determinati siti è l'ìnizio della censura. Si inizia così, poi si aggiunge un'altra categoria di siti, poi un'altra e in men che non si dica ci ritroviamo con un Grande Fratello Orwelliano a controllarci.
A questo punto cosa ci rimane? 
I "pirati" del web possono semplicemente tirar fuori dagli armadi i loro vecchi modem, montare un PC ( non serve nemmeno che sia particolarmente potente) e installarsi una BBS in casa.
In questo modo i provider possono pure censurare i siti ma non possono bloccare le risorse private.

Chi copia chi?

Fred Vogelstein in un libro (How Apple and Google went to WAR and Started a REVOLUTION) racconta che, quando Steve Jobs ha visto il primo smartphone Android e analizzato tutte le funzionalità del Robottino Verde abbia detto:" "Android è una copia di iOS, Rubin un cretino contro l'innovazione" e Adroid "una copia di iOS, destinata a fallire".
A distanza di 5 anni vediamo di analizzare la situazione: se il nuovo Android Kit-Kat (nome preso dal famoso cioccolatino!) risulta un evoluzione, iOS 7 è una rivoluzione: cambia radicalmente aspetto con nuove icone e nuovi colori abbandonando il suo vecchio "tema grafico" con quella che sembra una grafica pulita e in molti casi molto simile e vicina a quella Android ( jelly bean); nel nuovo (nuovo per gli utenti Apple) Multitasking, la somiglianza e il copia-incolla e praticamente palese, anche se quello di Androi è un reale multitasking mentre in iOS7 le applicazioni vengono "congelate" e quindi non continuano a lavorare in background.
Un'altra cosa che iOS7 ha preso in "prestito" da Android sono le notifiche: sin dalle prime versioni di Android le notifiche appaio in un menù a tendina verticale, cosa implementata nell' ecosistema Apple solo nelle ultime versioni. Per quando riguarda le funzionalità, anche qui Google la spunta, infatti Android a differenza diiOS7 offre la possibilità di controllare le notifiche dalla tendina, di strisciare via quelle che non si desidera leggere, di espanderne alcune per visualizzare le anteprime.
Insomma a dire tutta la verità Android e iOS sono due sistemi diversi, anche se ad un profano ad un primo colpo d'occhio possono sembrare la stessa cosa, e quello che gli utenti iOS considerano uno svantaggio per gli utenti Android, invece è un vandaggio: la possibilità di personalizzare il proprio sistema al 100%.
Prendete dueo tre iPhone e metteteli vicino a confronto cosa cambia oltre che lo sfondo le cartelle e la disposizione delle icone???? Niente sono tutti uguali senza personalità! Ora prendete due o tre modelli uguali di smartphon con sistema Android e metteteli a confronto cosa cambia??
Per finire vi invito a dare un occhiata a quello che gira in rete riguardo iOS che ha "copiato" Android: "Bravi possessori di iPhone. Finalmente avete un Android", recita un tweet. E ancora, "Strano, ho scaricato iOS7 e mi ritrovo Android". "E un altro: "iOS7 è meraviglioso. Congratulazioni al team di designer di Google Android!". Adesso ritorniamo alla domanda: CHI COPIA CHI?

Ricordi di un vecchio geek

L' 8 luglio 2013 chiuderà definitivamente un altro pezzo della storia informatica moderna: Altavista.
Questo, in realtà, è solamente l'ultima di una serie di dismissioni di storici programmi e siti che hanno fatto la storia del web negli anni '90.
Abbiamo visto la scomparsa prima di Comic Chat, poi di Netmeeting sostituito da Messenger , a sua volta sositutito da Skype; la fine di Hotmail, sostituito da Outlook.com, ed anche il famoso Flash, alla fine ha dovuto subire la sua inesorabile fine.
Per un "vecchio" geek come me, non dovrebbe stupire più di tanto, ho assistito al passaggio dalle BBS ad Internet ma, questa scomparsa di Altavista, mi lascia un buco nel cuore. 
Perché? I motivi sono vari :
i) Altavista è stato il primo motore di ricerca che definirei "moderno": il suo look era molto semplice, in un momento nel quale i suoi concorrenti tendevano a diventare portali ( yahoo!, Lycoss, Excite); 
ii) era veloce, una ricerca aveva un tempo medio di ricerca di circa 0,7 secondi; era semplice e permetteva di fare ricerche complesse tramite l'uso delle virgolette e degli operatori logici AND, OR, NOT; 
iii) fu il primo motore di ricerca a fare la ricerca per immagini e ad essere multilingue;
iv) infine per molti, tra il 1995 ed il m1998, è stato "IL MOTORE DI RICERCA", fino a quando non è arrivato Google.


Ripassiamo la storia di Altavista brevemente: venne realizzato nei laboratori di ricerca a Palo Alto, in California ed il 15 dicembre 1995 fu aperto al pubblico.
In un solo anno raggiunse la vetta dei 25 milioni di utenti mensili, superando Excite e Lycos.
Nel 1996 divenne fornitore esclusivo delle ricerche di Yahoo!. Nel 1998 la Digital venne acquistata dalla Compaq, AltaVista diventò un portale e questo segnò l'inizio del suo declino.
Nel 2003 Altavista diventò proprietà di Yahoo!
Nel 2013 Yahoo, sotto la guida del CEO Marissa Mayer, decide di chiudere il servizio.


Non so cosa rimarrà a ricordarci gli inizi della massificazione del web nei prossimi decenni, o chi sarà il prossimo a dipartire. 
Forse ICQ?

Regressione digitale

Sempre più spesso sento i miei amici vantarsi orgogliosamente di come il loro figlio di 7 o 8 anni "smanetti" in maniera naturale con lo smartphone o il tablet.
Io personalmente ogni volta che sento questo mi metterei le mani nei capelli e direi al loro padre :" Brutto imbecille, non vedi che sta succedendo? Non vedi che non impara nulla, che quella è una scatola vuota, con dentro tutto preconfezionato e che non gli permette di fare nulla al di fuori degli schemi prefissati? Voi che tuo figli diventi un automa?" Ma come sempre queste parole mi si chiudono nella gola.
Ho sentito dei ragazzi di 16-17 anni (che si consideravano esperti conoscitori dei computer) affermare che Bill Gates ha inventato internet, oppure non sapere che nel sistema operativo c'è "il prompt dei comandi" e confonderlo con il "vecchio DOS" (usando parole loro).
Pochi ( anzi pochissimi) si ricorderanno la pubblicità con la quale nel gennaio 1984 la Apple introdusse sul mercato il Macintosh dicendo "…and you will see why 1984 won't be like ''1984 '' "; ma invece, a distanza di quasi trent'anni da allora proprio la Apple rappresenta uno dei più grandi pericoli per lo sviluppo della conoscenza informatica nei giovani.
Una ricerca della Bicocca dimostra che i ragazzi usano dispositivi che si connettono rete e non percepiscono Internet come un'infrastruttura di base. Stanno crescendo in un mondo nel quale non solo non sanno, ma non possono smontare, smanettare, sperimentare e quindi imparare.
Due ragazzi su tre anno uno smartphone o un tablet, ma se a loro si chiedesse qual è il principio di funzionamento dello strumento o cosa sia ad esempio un URL non saprebbero rispondere.
Questi giovani diventano puri fruitori di un mezzo e, dallo stare davanti al televisore o stare davanti al tablet od allo smartphone per tre o quattro ore al giorno non v'è ormai differenza. La rivoluzione informatica iniziata negli anni '80, quando ci si "Costruiva" il computer e ce lo si ampliava personalmente, facendoci anche i programmi è ormai finita.
L'origine del potere dirompente dei primi personal computer, in particolare del PC IBM, era il fatto che era basato su standard tecnici aperti. Con poche eccezioni, i protocolli e i linguaggi di comando di quei componenti erano noti e liberamente utilizzabili. Chiunque poteva essere hacker e sviluppare software, driver, sistemi operativi. Questo fece prosperare in modo esplosivo la cultura dell'informatica amatoriale. Il personal computer era, appunto, personal. Ci mettevi su il software e l'hardware che volevi, senza renderne conto a nessuno. Ora considerate invece un iPad: è bello, funziona bene, ma è sigillato. Niente aggiunte hardware. Provate a installarvi software non autorizzato da Apple: potete farlo soltanto pagando una licenza ad Apple o ricorrendo a un jailbreak. Il dispositivo è fisicamente vostro, ma per essere liberi di metterci il software che vi pare dovete scavalcare attivamente gli ostacoli e le restrizioni che il costruttore ha imposto. Il salto da consumatore passivo a utente creativo è diventato più lungo.
La stessa cosa sta succedendo con internet: da un luogo libero, con protocolli liberi sta sempre più diventando un posto dove pochi monopolizzano le notizie e le informazioni. Oggi la maggior parte degli utenti internet si limitano ad andare su FB (Facebook) dove tutto e "unilaterale" deciso dal gestore e basta.
I newsgroup (luoghi liberi dove ognuno poteva esprimere le proprie idee e discuterle liberamente) stanno sparendo, così come anche i forum sono sempre meno consultati e usati.
I dati indicano che stiamo rinunciando progressivamente agli elementi tecnici fondamentali che hanno permesso lo sviluppo della Rete, sostituendoli con un ecosistema hardware e software progressivamente sempre più chiuso.
Il problema è molto più grande di quanto si posso pensare, perché porta questi giovani ad essere esposti alla violazione della privacy, o a truffe online o al pericolo di prendere virus molto più degli anni passati.

Wikipedia e la falsa cultura

Nel gennaio 2001, Jimmy Wales (financial trader) e Larry Sanger (dottore in filosofia) creano Wikipedia, un servizio che consentiva a chiunque di creare o editare una voce enciclopedica.
Wikipedia suscitò immediatamente l'entusiasmo dell'utenza, al punto che, dopo un solo anno di vita erano state scritte e corrette 20.000 voci. Inizialmente lo scopo di Wales e Sanger era quello di trovare editori che editassero voci per la loro enciclopedia online (Nupedia) che poi sarebbero state sottoposte al controllo di esperti nei vari settori.
Negli anni a seguire Wikipedia è cresciuta fino a toccare i 51.000 ediotrs nel 2007 ( che andavano dai 7/8 fino agli 80 anni) poi... il declino, tanto che oggi conta solamente 31.000 editors.
Il declino non è tanto nella mancanza di editors o nella scarsità di contenuti, ma quanto la loro qualità.
Vediamo di analizzarne brevemente alcuni esempi: basta fare un giro su wikipedia e ci si accorge che le voci su Pokemon, pornostar o personaggi di gossip sono complete, mentre quelle su autori ( e/o premi nobel), luoghi dell'africa sub-Sahariana ecc, sono molto approssimative.
Per fare un esempio se confrontiamo le voci relative a Fabrizio Corona e a Rudyard Kipling e vediamo che Corona vince per 2546 parole (circa) contro le 1040 di Kipling ( Dalla lista delle parole gli inidici della pagina di Kikipedia di entrambi).
Un'altro problema è quello della "Censura" che viene applicata da alcuni addetti al controllo dei contenuti che censurano i fatti che non condividono o che non hanno modo di controllare "in rete".
Due casi vorrei portare come esempio: il primo di Emanuele Mastrangelo (caporedattore di Storiainrete.com, sito specialistico, e autore di alcuni studi sul fascismo) che nel 2010 venne espulso da wikipedia in quanto "L'utente non gode più della fiducia della comunità". La colpa di Mastrangelo era di aver affermato che in Italia la fine della Seconda guerra mondiale assunse anche il carattere di una "guerra civile".
Un'altro caso è capitato ad un mio amico Rudy de Cadaval (poeta, scrittore e sceneggiatore italiano) che quando inserì la sua biografia su wikipedia in un primo memento venne censurata in quanto gli editori di wikipedia non avevano modo di trovare "in rete" i suoi riconoscimenti ed avevano bollato la pagina come autocelebrativa; invano il sing. De Cadaval ( classe 1933) cercò di mettersi in contatto con i gestori di wikipedia al fine di inviare loro copia dei riconoscimenti che non consideravano reali ( tra i quali l'Onorificenza di Cavaliere per meriti letterari assegnata nel 1989 dal Presidente della Repubblica Italiana Francesco Cossiga).
Anche questa alla fine venne accettata da wikipedia ma il sign. De Cadaval dovette ridimensionare sulla sua pagina la lista dei riconoscimenti e premi ricevuti. Il problema che si presenta con Wikipedia oggi è quindi doppio, da una parte vi è la scarsa qualità della maggior parte dei contenuti e dall'altra la monopolizzazione anche se non visibile di chi, forte di una posizione di controllo, si permette di censurare ciò che non gli aggrada.
Negli ultimi anni sono state, inoltre, molte le voci di intellettuali che si sono alzate contro wikipedia, tanto quando il progetto rischiò di cessare si lessero molti "e chi se ne frega" in rete (Massimiliano Parente: "Io festeggio, non ne potevo più. Mi godo la Treccani", Alberto Di Majo: "La nuova legge sulle intercettazioni potrebbe avere un merito inaspettato: far scomparire Wikipedia." )
Per finire è di questi giorni ( novembre 2013) la notizia che 250 editors di wikipedia sono stati esplulsi perchè scoperti di aver falsificato i contenuti dietro il pagamento di denaro, i cosiddetti "sockpuppet", gli utenti fantoccio, cioè coloro che creano un account aggiuntivo e spinti da un eccesso di autocompiacimento tessono le lodi di se stessi, società, organizzazioni o si divertono a criticare a prescindere.
A questo punto mi chiedo se non sia meglio tornare alla vecchia treccani, magari in versione cartacea che fa anche la sua bella presenza in casa...

(Dis)informazione al tempo di interne.

(Dis)informazione al tempo di interne.Il 30 ottobre del 1938 Orson Welles spaventò molti radioascoltatori con uno sceneggiato radiofonico, che simulava un invasione aliena. E' difficile immaginare che un radiodramma possa provocare un tale equivoco oggi, quando le persone possono controllare velocemente le ultime notizie sui loro smartphone, tablet e PC, ma internet, come la radio nel 1938, è una Media "relativamente giovane".
Tra i rischi presentati nel rapporto "Global risks 2013", uno dei primi rischi che viene presentato come tale è la "digital wildfires" (la pubblicazione di false informazioni o fuorvianti). 
Come nel '38 ai giorni nostri Internet ha acquistato una grande importanza per la diffusione delle informazioni, tanto che spesso vengono citati dagli stessi giornalisti, Tweet pubblicati come fonte della notizia.
Nell'estate del 2012, per esempio, un utente Twitter impersonando il ministro degli interni russo, Vladimir Kolokoltsev, ha scritto su Twitter dove diceva che il presidente Bashar al-Assad di Siria era stato "ucciso o ferito". I prezzi del petrolio greggio aumentarono di oltre un dollaro prima che i commercianti si resero conto che Assad era vivo e vegeto. Nel settembre 2012, le proteste per un film anti-islamico caricato su YouTube costarono la vita a decine di persone.
Tornando a casa nostra tempo fa era girata su Facebook la notizia di un fantomatico Senatore Cirenga che avrebbe fatto votare un disegno di legge su "fondo per parlamentari in crisi" passato con 257 voti a favore e 165 astenuti. Questa notizia, facilmente verificabile ( i senatori in Italia sono solamente 315 + 5 a vita ed il senatoe Cirenga non esiste) ha spopolato venendo ripostata su moltissimi profili.
Ma come si fa a scoprire se una notizia è vera o falsa?
Semplice basta fare una ricerca (solitamente non richiede più di 5 o 6 minuti) su google per appurare la verità.
Il problema non è nella libertà di espressione o nel mezzo che si usa – internet nel nostro caso – ma è la pigrizia del verificare quando si apprende e, soprattutto, nel voler credere una cosa anziché un'altra.

Come il cloud di adobe cambierà il software.

Come il cloud di adobe cambierà il software.Quella che Adobe si appresta a intraprendere è una vera e propria rivoluzione: tutti i software ( a eccezione di Fireworks che non verrà più sviluppato ) verranno inglobati nella Creative Cloud.
Il modello che propone Adobe si basa sul concetto della sottoscrizione di un contratto: per utilizzare una singola app servono all'incirca 25 euro al mese, comprensivi di 20 GB di spazio online.
Questo metodo ha i suoi vantaggi, prima di tutto per la Adobe che in questo modo elimina il pericolo della pirateria, poi per l'utente che ha la possibilità di avere sempre il software aggiornato, ma…

Ma c'è un ma in tutto questo: molti utenti, però, non hanno gradito questa mossa di Adobe e hanno deciso di aprire una petizione su Change.org, con già più di 9.000 sottoscrittori; nella petizione si legge :" Adobe sta derubando i piccoli business, i freelancer e il consumatore medio. Non capisce come ogni società non sia una multinazionale, una compagnia multi miliardaria con a disposizione risorse infinite".
Questa protesta si basa sul fatto che se si tiene l'abbonamento per più di 3 anni si va a pagare di più di quanto non costerebbe comprare il software con il pagamento "One-time".
Ad esempio, secondo una ricerca di della redazione di CNET, la Creative Suite CS6 Master Collection costerebbe 2,644 dollari, con un periodo medio di tre anni d'utilizzo per gli acquirenti. Nello stesso lasso di tempo, però, approfittare degli identici software sulla Creative Cloud comporterebbe tariffe ben minori, ovvero circa 1.800 dollari. Lo stesso vale anche per la scelta di un singolo software: Photoshop CS6, in vendita a circa 800 dollari, ne costerebbe solo 720 sulla Creative Cloud nell'identico periodo di riferimento.
Non è però detto che un utente cambi il software ongi tre anni: ad esempio ci sono utenti che hanno usato adobe CS2 (che ha più di 7 anni ) su computer "vecchi" , dove le suite cs5 e cs6 non funzionerebbero correttamente, e solo da poco non potranno più reinstallarla in caso di crash del computer,perché la Adobe ha "disabilitato il server di attivazione dei prodotti CS2" per problemi c on i server.
Una linea diversa e invece quella che sta seguendo la Microsoft con il suo Office360.
Office360 offre infatti, oltre alla possibilità dell'utente di installare la suite office sul computer, anche la possibilità di usufruirne online; in questo modo l'utente che compera Office360 ha la possibilità, comunque di usare WORD, EXCELL ed altri software anche se lontano dal computer di lavoro usuale.

E' probabile che dal passaggio delle grandi software house al clouding ne trarranno beneficio i concorrenti (come GIMP, OPEN OFFICE, ecc.) programmi open source e che nei prossimi anni vedremo la rinascita dell' Open source.

Windows 8: sistema di transizione e non solo un flop

Windows8È successo di nuovo e lo avevamo già visto altre volte: il nuovo sistema operativo Microsoft non ha “sfondato” come nelle aspettati vive; ma questa non è una novità.
Questa “serie di alti e bassi” iniziò per la casa di Redmond con il lancio di WindowsME o Windows Millennium Edition, un sistema operativo ibrido tra 16-bit e 32-bit, successore di Microsoft Windows 98, e lanciato in concomitanza con il sistema operativo Windows2000.
In quell’occasione il “flop” di Me fu evidente: gli utenti continuavano a preferire Windows98 o spendevano qualche lira/euro in più e passavano direttamente a windows2000.
Il motivo era semplice: era un sistema di transizione, un anteprima di quello che sarebbe stato WindowsXP ma senza le stesse funzionalità e stabilità.
Molti utenti, vedendo che era un sistema di transito, scelsero poi di “aspettare” l’uscita del nuovo sistema operativo e, infatti, nell’ ottobre del 2001 il nuovo sistema operativo venne rilasciato ed ebbe una buona accoglienza vendendo ( secondo i dati microsoft) 17 milioni di licenze nei primi mesi della sua messa sul mercato.
Analogamente a quando successo con WindowsMe, quando la microsoft presentò il successore di WindowsXP ( Windows Vista), il nuovo sistema operativo non ottenne una buona accoglienza, tanto che molti produttori di PC vendevano i computer con preinstallato Windows Vista e la possibilità di downgrade a WindowsXP. La Microsoft, anche in questo caso, fu costretta ad anticipare l’uscita di Windows7 di almeno un anno sui suoi piani.
Adesso sembra che la stessa sorte spetterà a Window8, tanto che la Microsoft ha già annunciato che a breve (fine 2013?) uscirà il sistema operativo Windows  Blue, in pratica un aggiornamento che renderà windows 8 più “user friendly”.
Il problema di Windows8 ( come di Me e di Vista) è prima di tutto il restyling operato da Microsoft per questi sistemi; un dato interessante era  che, appena uscito XP, moltissimi utenti preferivano usare “l’interfaccia classica“ che ricordava Windows98 invece che la tipica interfaccia di WindowsXP.
In Vista questa  possibilità era assente e ugualmente in Windows8; in quest’ultimo sistema, poi, il rifacimento dell’interfaccia grafica è stato così rivoluzionario da confondere completamente l’utente.
Microsoft, infatti, ha puntato molto su un’interfaccia “Touch Screen”, cercando di avvicinarsi al mercato dei Tablet e creando, nel contempo, una discontinuità con il passato.
Se da un punto di vista tecnico Windows8 ha pochi problemi o bug, rispetto ai suoi predecessori quando erano usciti, il problema grande rimane l’apprezzamento da parte del pubblico che, per usufruire appieno delle potenzialità della nuova interfaccia , necessita di un computer “touch screen” .
Rimane poi il problema delle piccole aziende o dei piccoli uffici: quando un dipendente ( ad esempio una segretaria che non ha molta famigliarità con i computer) si trova conun computer nuovo e a dover imparare tutto dall’inizio, spesso il processo di passaggio richiede tempo ed errori che si trasformano in una caduta di produttività nel breve periodo.

Perché android è il futuro ed ios il passato (prossimo).

Il titolo di questo articolo sembra un poco apocalittico per la casa di Cupertino ma, a mio umile giudizio, potrebbe rappresentare quello che succederà nel mercato degli samrtphone e dei tablet nei prossimi 5-8 anni.
Quest'anno le vendite di dispositivi basati su Android hanno superato quelle della casa di Apple e, malgrado l'entrata sul mercato di Windowsphone sembra che saranno destinate a salire.
Per contro la casa di Cupertino continua ad essere leader nella vendita di dispositivi mobili, seguita da Samsung, Asus, ecc, e gli utenti IOs simangono ancora quelli che "navigano" di più con il loro dispositivo. 
Per capire questo sorpasso bisogna prima analizzare, brevemente, i due sistemi operativi ( Windows Phone lo tralasciamo visto che non sembra avere un futuro brillane). IOs, nato nel 2007, è un sistema operativo specifico per tablet e smartphone made in Apple,che deriva da OS X (sempre un sistema operativo specifico per computer Apple); Android, anche lui ha fatto il suo debutto nel 2007, si basa sul Kernel di Linux, ed è nato per essere installato sui dispositivi mobili di diversi produttori ( Samsung, HTC, Asus, ecc.) Questa differenza fondamentale fa si che l'unico mercato per IOs sia la Apple stessa, mentre Android ha un mercato più ampio che permette anche di ridurre i costi di acquisto per gli utenti finali.
Il fattore costo è uno dei fattori che, in tempo di crisi, ha permesso il sorpasso: infatti se per comperare un IPHONE si parte da un minino di 350,00 euro per un dispositivo ANDROID si parte con cifre dai 99,00 euro a salire.
Ma il solo fattore economico non basta a spiegare questo sorpasso. Da un punto di vista puramente "Tecnico" Android è un sistema aperto, quindi molto customizzabile da parte dell'utente che può trovare ( o farsi ) le applicazioni e le personalizzazioni che più gli servono per il suo lavoro/divertimento/studio, senza l'obbligo di passare dallo "Store" online o l'obbligo di usare un solo programma ( in IOs tutto passa da Itunes ).
Ma anche Apple ha la sua colpa ed il sorpasso non è tutto merito della concorrenza; la Apple ha una stretta politica commerciale: loro non seguono la massa, puntano dritti per la propria strada senza pensare agli altri. Troppo spesso gli utenti Apple si lamentano per la mancanza di semplici funzioni che potrebbero essere implementate nei nuovi dispositivi; nuove funzioni che creano delle aspettative che purtroppo vengono deluse puntualmente al rilascio di ogni nuovo device. Questa cosa non accade con i dispositivi Android. Per finire, è interessante notare che anche il mercato delle Smart TV è al 90% in mano a dispositivi che usano Android, e che, con poco più di 60 euro, qualunque TV può diventare una Smart TV; mentre la TV di Apple, sebbene annunciata, è molto lontana e sicuramente con costi molto elevati.

Vorrei chiudere questa mia riflessione con un confronto tra le principali caratteristiche dei due sistemi operativi.

IOs Android

Applicazioni: Nell’orientarsi se sia meglio iOs Android o Windows una componente importante nella decisione di acquisto sono le applicazioni. L’App Store è in testa, con oltre 695mila applicazioni mobili disponibili (ma in continua crescita), gratuite e pagamento.

Lingua: iOs può essere utilizzato in 30 lingue e ha più di 50 diversi layout di tastiera.

Uso professionale: iOs si può usare al lavoro? Sì: funziona con Microsoft Exchange Server e altre soluzioni simili fornendo servizi di posta elettronica condivisi con i contatti per il lavoro, anche quando non si è in ufficio. Inoltre offre accesso sicuro alle reti aziendali private tramite Vpn.

Multitasking:  al suo debutto iOs aveva un grosso gap, il multitasking (si poteva fare solo una cosa alla volta). Le versioni successive hanno introdotto un certo livello di multitasking. Anche l’ultima versione non è al cento per cento un multi-tasker, ma per anche nell’uso quotidiano è difficile accorgersi della differenza.

Specifiche tecniche: iOs è basato sul kernel di OS X, è autonomamente dotato di caratteristiche di sicurezza contro virus e malware e non richiede applicazioni separate per la sicurezza. iOs viene venduto con Safari come browser predefinito per iPhone e iPad, non supporta nativamente Flash (ma sono acquistabili browser che ne consentono la visualizzazione). iOs non offre nessuna possibilità di espansione ma supporta i processori multicore. Le ultime versioni hardware integrano l’assistente vocale Siri, che espande di molto le potenzialità del dispositivo (e tutte le nuove applicazioni Siri oriented, come le Mappe a comando vocale). Da un punto di vista hardware i dispositivi apple non offrono la possibilità di espanderli con memorie aggiuntive o di poter cambiare la batteria o la cover da soli ma sempre passando da un centro Apple.

 

Applicazioni: Google Play, (il market di Android) ospita più di 600mila applicazioni da scegliere (c’è da dire che la maggior parte delle applicazioni sono clonate dall’Apple Store). E la possibilità di installarle senza connettere il dispositivo, direttamente dal browser è una vera comodità.

Lingua: Android supporta oltre 57 lingue. Gli sviluppatori possono, inoltre, aggiungere qualsiasi lingua, dialetti inclusi.

Uso professionale: Android è strettamente connesso con tutte le applicazioni di Google, tra cui Google Docs, che è un grande strumento di produttività per l’ufficio. Inoltre, un certo numero di altre applicazioni sono disponibili per la visualizzazione e la creazione di file Pdf, presentazioni, programmazione, riunioni gestionali, gestione economica e tanto altro. Esistono inoltre un’infinità di applicazioni specifiche che possono trasformare un dispositivo Android da un server FTP ad  Telecomando.

Multitasking: Il multitasking è uno dei vantaggi principali di Android rispetto a iOs, che permette di passare dalle attività ai programmi e tornare poi senza perdere dati a quello che si stava facendo precedentemente.

Specifiche tecniche: Basato sul sistema operativo Linux, Android offre reali capacità di multitasking, insieme con i servizi Google e le applicazioni web come Google Search, Gmail, Picasa, Plus, Play e molti altri. Il sistema operativo è vulnerabile a malware e virus, quindi è necessario avere una suite di app per proteggersi da possibili attacchi. Viene fornito in bundle con uno dei migliori servizi di Google (ad esempio le Google Maps) e ha un assistente vocale superiore a Siri. Android esiste in molte varianti, dovute alle personalizzazioni dei vari produttori di dispositivi. La versione standard è caricata sui Google Nexus (prodotti da Samsung).Da un punto di vista Hardware, inoltre, i dispositivi Android permettono di cambiare la batteria, la cover e anche installare una scheda di memoria aggiuntiva

© The Unedited 2018
contacts: info@theunedited.com