sabato 10 giugno 2023

DEFICIENZA, NATURALE

Dell'argomento AI ne abbiamo già parlato come di uno di quei pericoli gravissimi verso i quali sarebbe opportuno porre argini non appena si delineano all'orizzonte come tali, perché invece aspettando di vedere la piena che arriva poi non si fa più a tempo nemmeno a scappare. Altro esempio è il famigerato green-pass, accolto da tutti come un prezioso dono di governanti illuminati volti a proteggere la salute pubblica, e solo da noi quattro "complottisti" additato come un pericolosissimo vulnus alla libertà individuale, accettato il quale si sarebbe spalancata la porta ad un suo utilizzo discrezionale ora e sempre: a saper leggere la cronaca già si vede chi aveva ragione, e il peggio deve ancora venire.

Avere il punto di vista di un tecnico del settore come Pasbas è però occasione da non lasciarsi sfuggire, per meglio comprendere cosa sia mai questa nuova sigla che ormai imperversa in cronaca e cosa comporti. Anche se al titolo interrogativo da lui proposto, e che ho lasciato al suo posto, affianco, come titolo a questo post, una possibile, anzi probabile, risposta.

---

Intelligenza “Artificiale”?!

di Pasbas

Come ogni acronimo di origine anglofona anche AI (Artificial Intelligence, per quei pochi che non lo sapessero) entra a buon diritto tra le sigle che ci tormenteranno per i decenni a venire. Ma cosa veramente si nasconde dietro questa “parolona”? Condivido alcune riflessioni...

Nella seconda metà degli anni 80 scrissi un appunto da discutere nella sezione Ferrovieri del PCI; si parlava all’epoca di come la robotica avrebbe modificato i rapporti tra i lavoratori in fabbrica, i sindacati ed i padroni. Portavo l’esempio di una grande multinazionale del settore automobilistico, la cui filiale europea aveva visto i lavoratori scendere in sciopero: la semplice reazione del padrone fu che, da remoto, i colletti bianchi misero in moto le linee robotizzate di produzione ed in pochissimo tempo lo sciopero fallì… Da qui la domanda: la tecnologia sviluppata nel contesto capitalistico è davvero elemento neutro? 

Fine anni ’90, nel settore hi-tech delle telecomunicazioni uscivano le prime applicazioni di AI con algoritmi di autoapprendimento (come si vede la tecnologia è in pieno sviluppo da 25/30 anni). Per quanto mi era dato sapere all’epoca le applicazioni erano fondamentalmente sviluppate in ambito universitario e di alcune multinazionali hi-tech e destinate ad uso prevalentemente civile. Considerando già solo i primi due punti si capisce facilmente quali siano i suoi veri ambiti di applicazione nel sociale.

E’ però indubbio il fatto che in molti campi AI abbia portato grandi progressi; mi viene in mente innanzitutto il campo della medicina, tutto il supporto che la tecnologia fornisce per interventi complessi e ad alto rischio per il paziente. E così è per altri campi del settore civile. Discorso diverso per le multinazionali hi-tech come Microsoft, Apple, Amazon, Google etc. Per loro il discorso è diametralmente opposto: l’uso dei dati dell’utente che, filtrati da AI, portano a caratterizzare ed inserire i clienti all’interno di categorie socio-merceologiche ben determinate. Da notare che fino a questo punto eravamo in ambito di supporto previsionale che i direttivi di queste compagnie usavano per aggredire il mercato attuale e costruire le proprie visioni di un futuro più o meno distopico.

Siamo però entrati da qualche anno nella fase 2 dello sviluppo di AI: la tecnologia si trasforma da “oggetto di supporto” alle decisioni di mercato a “soggetto creativo” che costruisce ambienti ed opzioni senza intervento umano. Dal campionamento della voce umana, per esempio con successiva possibilità di scrivere dei componimenti più o meno estesi e di farli leggere con la voce del soggetto campionato (proviamo a immaginare quanto devastante possa essere in campo politico, sociale, della giustizia), alla modifica di tratti somatici di persone reali per crearne versioni digitali controllate a distanza, fino ad arrivare ad applicazioni militari da utilizzare nello scontro asimmetrico tra super-potenze militari e società povere e più o meno inermi (vedi conflitti mediorientali e altro). Ci si trova ad avere da una parte macchine di aria, terra e mare guidate da AI senza significativo intervento umano, capaci di cambiare in tempo reale tattiche e strategie militari in funzione della situazione militare sul campo di battaglia. E magari governi folli e potenti, come ne conosciamo oggi, tentati di affidare a “soggetti AI” le decisioni relative all’uso del nucleare.

Esistono alcuni limiti della AI nello stato attuale di sviluppo. Essa infatti è sostanzialmente ancora un esecutore automatico di compiti ben definiti e solo all’interno di un contesto chiaramente e rigidamente definito. Come esempio prendiamo il “Riconoscimento Facciale” (da qui in avanti RF): la funzione AI che realizza il RF esegue una operazione “semplice” ma estremamente veloce sulla immagine acquisita che deve confrontare con un archivio vastissimo di foto preesistenti. Il confronto viene fatto interpretando i tratti facciali fondamentali e scandagliandone a fondo i particolari. Se questo è l’ambito e la Base Dati (da qui in avanti DB) è sufficientemente grande il tutto funziona; ma c’è un ma, il sistema AI di RF non ha “consapevolezza” di cosa sia una testa ed un essere umano, sta solo analizzando tantissime immagini ad una altissima velocità. Questo è tanto vero che se si tenta il riconoscimento di un oggetto non presente nel DB il risultato dell’analisi sarà un sicuro fallimento. Proviamo ad immaginare cosa questo possa significare per le applicazioni di “Guida senza conducente”: le conseguenze potrebbero essere fatali. AI non è in grado di conoscere tutto l’ambiente che lo circonda, come sa fare un essere umano, ma di quell’ambiente riconosce ed interpreta solo gli oggetti e le situazioni per le quali è programmato. Qualsiasi richiesta al di fuori del suo contesto condurrà ad un fallimento del processo decisionale. Come esempio prendiamo tre giganti dell'HighTech: Google, Facebook e Amazon. I loro sistemi previsionali basati su AI sono progettati per indurre il cliente a fare il maggior numero di click per visualizzare il maggior numero di siti. I loro algoritmi propagandano perciò siti ad alto numero di accessi, molti dei quali illegali e potenzialmente pericolosi a livello sociale: AI non è quindi in grado di “entrare nel merito” delle situazioni non opportunamente predefinite, al massimo può ricercare “parole chiave”. Da quanto detto si desume che per ottenere risposte coerenti da sistemi AI vanno poste le richieste nel modo giusto, nel contesto giusto e col linguaggio giusto.

Un esempio. Amazon ha aperto recentemente alcuni negozi chiamati Amazon Go Supermarket, in questi luoghi il cliente deve seguire procedure ben definite:

  1. Caricare una app Amazon per la spesa nel loro supermercato.
  2. Aprire il tornello facendo leggere i propri dati app al lettore.
  3. Recarsi agli scaffali di interesse e prelevare i prodotti desiderati. Nel caso di ripensamenti tornare allo scaffale giusto e posare il prodotto, il sistema prende nota di questo evento.
  4. Le casse non esistono, si esce direttamente senza pagare, come un qualsiasi “taccheggiatore”.

Sorge spontanea la domanda, in base a quali input il sistema AI gestisce la procedura di acquisto di ogni cliente? Semplice, alzando gli occhi al soffitto si vedono chiaramente una marea di dispositivi che seguono il cliente passo passo e continuamente durante i suoi acquisti. E la privacy? Beh, quello è un problema vostro, non certo delle Big Tech.

Un altro esempio. Nella Bay Area (S. Francisco), e precisamente alla Stanford University, si stanno facendo ricerche molto interessanti in campo medico, basate su AI. Un ottimo esempio è la lettura e interpretazione delle immagini radiografiche. Basta caricare una app sul cellulare, fare lo scanning della lastra ed in pochissimi secondi si ottiene la diagnosi relativa. Ecco per sommi capi il funzionamento del sistema: si raccolgono centinaia di migliaia di radiografie con relative diagnosi. Poi il sistema viene “istruito” su come interpretare le immagini. Man mano che le migliaia di referti vengono interpretati il sistema affina la sua “rete neuronale”, alla fine di questo lungo processo di apprendimento la “granularità” del sistema diviene sempre più spinta e la sua capacità diagnostica più efficace. Finito il “processo di apprendimento” sono stati fatti dei test di diagnosi da parte di veri radiologi molto quotati e del sistema diagnostico AI e in entrambe le situazioni (radiologo vs AI) i risultati hanno dato una percentuale di successo di oltre il 90%. Applicazione davvero interessante che mostra come un sistema AI, opportunamente “educato”, è in grado di costruire una “rete neuronale” molto efficace (ma solo nel campo specifico, radiologia polmonare).

Ancora un esempio. In una università britannica è stato sviluppato un sistema per la diagnosi precoce del Parkinson basato sulle modificazioni della voce e del modo di camminare. Le applicazioni sui cellulari, che misurano il numero e l’ampiezza dei passi basandosi sui sensori presenti nei telefoni, possono raccogliere la grande massa di dati (decine di milioni) su cui fare la ricerca . Analizzando le caratteristiche della voce e la frequenza e regolarità dei passi il sistema è in grado di predire con grande precisione (cosa non possibile per dottori umani) l’insorgere della malattia negli anni a venire. Il matematico coordinatore della ricerca dice che, in mancanza di un complesso di leggi che regolino la materia (la cosa impatta su enormi problemi di privacy, tanto per cambiare), il progetto su larga scala non può realizzarsi.

Diversa, come spesso capita, è la realtà cinese. Una delegata tedesca per l’HighTech in Cina ha condotto varie ricerche, soprattutto tra i giovani impegnati nell’esplorazione di nuovi campi di applicazione dell’AI. Ha scoperto che la maggioranza degli intervistati è molto motivata e contenta di lavorare secondo la formula 9-9-6: cioè dalle 9.00 alle 21.00 per 6 giorni a settimana (sic!). Esperimenti interessanti sono in corso, come un ristorante completamente gestito in modo automatico, dalla cucina al servizio robotico in sala: ogni macchina, attività e lavoratore continuamente sotto controllo del sistema. I problemi di riservatezza non preoccupano minimamente i cinesi il cui giudizio è estremamente positivo, loro valutano infatti i vantaggi di molto superiori rispetto ai possibili problemi. Infatti la loro cultura, molto diversa dalla nostra soprattutto riguardo alle libertà personali, non gli fa percepire alcuna anomalia o rischio nei confronti della “sorveglianza totale”. Nel distretto finanziario a nord di Hong Kong, il più importante della Cina, una intera città di 13 milioni di abitanti (Shenzhen) è gestita completamente in tempo reale da un sistema basato su AI, grazie ad un complesso progetto sviluppato dal colosso delle telecomunicazioni Huawei (compagnia messa al bando dagli USA per spionaggio nazionale… e le compagnie USA quali Cisco invece?): videocamere e sensori ovunque collegati tramite 5G al sistema, individui muniti di webcam che riprendono continuamente le zone non coperte della città, tutto spedito in tempo reale e analizzato a livello di sala di controllo. Le decisioni sul “che fare?” vengono prese in tempo reale dal sistema. Il giovane coordinatore del progetto sostiene che in questo modo la città è gestibile in modo più efficiente e che il numero di crimini è significativamente diminuito (sarà vero??).

Un quarto esempio. Le sedi centrali delle tre compagnie USA BigTech Google, Apple e Meta (Facebook) sono totalmente inaccessibili al pubblico: è appena tollerato avvicinarsi agli ingressi principali per guardare gli edifici e fare qualche autoscatto. Ogni cosa relativa alle attività è considerata riservata o “top secret”. Va considerato inoltre che Google spende oltre 6 milioni di dollari l’anno per le sue attività di “lobbying” a Bruxelles, obiettivo condizionare pesantemente le scelte politico-economiche dell’UE! La stessa compagnia ha sviluppato (e continua a sviluppare) applicazioni davvero inquietanti, una per tutte il sistema AI installato in ambiente domestico per catturare e tenere sotto controllo lo stato emotivo dei suoi abitanti. I responsabili di Google Germania sostengono che, avendo la compagnia un forte connotato etico (?!), molte delle applicazioni sviluppate non vengono rilasciate sul mercato per problemi di impatto morale. Negli USA l’influenza delle BigTech sul mondo politico rappresentano ormai un problema noto e costantemente osservato. Un importante consulente di mercato globale spiega come questi giganti tecnologici, attraverso i loro burattini ed emissari politici, condizionino pesantemente le scelte politiche strategiche di USA e UE. Inoltre afferma che è divenuto urgente legiferare per limitarne l’azione, in quanto compagnie che lavorano per modificare i pensieri della gente e la struttura della società a loro uso e consumo, usando il loro indiscutibile potere. 

Un ultimo esempio (per ora: probabilmente seguirà un secondo articolo). Una ricerca importante è in sviluppo al MIT di Boston riguardante la “Nuova Mobilità”. Il nome del progetto è “Moral Machine” ed è focalizzato sulla problematiche delle scelte etiche che, nel campo della guida senza conducente, il sistema deve operare. Un primo grosso ostacolo è trovare un modo per interpretare le intenzioni di un umano dall’osservazione della sua espressione facciale, della sua postura fisica: per esempio comprendere se un pedone fermo davanti alle strisce pedonali avrà intenzione di attraversare o no; in base a questa analisi AI deciderà se frenare o sterzare o proseguire dritto. Il coordinatore del progetto, uno dei massimi esperti del settore, sostiene che ci vorranno almeno venti anni, probabilmente trenta, prima di arrivare ad una tale capacità. Nel campo delle scelte etiche (componente ancora più complessa del sistema) AI dovrà essere in grado di decidere in frazioni di tempo brevissime, chi salvare e chi no in caso di incidente fatale. In questo peseranno le culture dei vari popoli. Da uno studio condotto su 40 milioni di persone, tra tedeschi e francesi, è venuto fuori qualcosa di singolare e davvero interessante: per i tedeschi in casi controversi e con rischi gravissimi, la cosa migliore è affidarsi alla scelta del sistema proseguendo senza deviare. Per i francesi invece la cosa fondamentale è salvaguardare la vita di donne e bambini presenti sulla scena. Come si può evincere da questa analisi il problema etico è pressoché irrisolvibile in ambito AI, la scelta etica è e deve restare del guidatore umano.

Nessun commento:

In evidenza

DEFICIENZA, NATURALE

Dell'argomento AI ne abbiamo già parlato come di uno di quei pericoli gravissimi verso i quali sarebbe opportuno porre argini non appen...

I più cliccati dell'anno