terapia anticancro - intelligenza artificiale

L’intelligenza artificiale (IA) si è sviluppata in numerosi ambiti. La medicina ne è un esempio. Sono tante le applicazioni che possono essere usate per interpretare, ad esempio, le immagini istologiche.

In alcuni casi, l’IA è considerata rivoluzionaria. Lo possiamo vedere con gli ultimi fatti di cronaca: una madre che grazie all’aiuto di ChatGPT, ottiene la diagnosi corretta per il dolore cronico che da anni colpiva il figlio.

Intelligenza artificiale, il “dietro le quinte”

Dunque, nessuno contesta i benefici e anche i meriti della tecnologia. Tuttavia cerchiamo di andare “dietro le quinte” per cogliere anche i lati più oscuri che vanno compresi e, forse, superati.

Intervistato su Rainews, il fisico e docente allUniversità di Bath, Nello Cristianini, ha spiegato l’importanza di conoscere e comprendere questo tipo di intelligenza per creare regole e leggi che ne limitino i rischi.

Ciò che mette subito in chiaro è che non siamo di fronte all’intelligenza autocosciente e linguistica dell’uomo.

Intelligenza artificiale, intervento del fisico Cristianini

Per molti anni abbiamo tentato di riprodurre nelle macchine il nostro tipo di intelligenza senza grandi successi – spiega Cristianini -. Poi un giorno abbiamo deciso di prendere delle scorciatoie allontanandoci dal metodo umano. E abbiamo usato un metodo puramente statistico per tradurre documenti, per conoscere le immagini, per fare tutto. Questo è il metodo che utilizziamo oggi: fornendo alla macchina tanti esempi del comportamento desiderato, la macchina può essere in grado di emularlo utilizzando la statistica”.

Come puntualizzato dalla scienziato, si tratta di una scorciatoia che ha anche degli svantaggi. La grande mole di dati viene raccolta da internet. Questo significa che la tecnologia ci controlla costantemente perché è nelle nostre tasche.

Ci raccomanda i video su You tube, comanda gli articoli da leggere su Facebook, blocca le email spam, è usata ovunque e ovunque prende decisioni dopo averci osservato, dopo aver imparato cosa vogliamo. Ed ha degli usi pervasivi” continua Cristianini.

L’IA e la dipendenza comportamentale

Dunque la macchina ha la necessità di osservarci per imparare. Ma il rischio è che qualcuno potrebbe utilizzare quei dati per motivi nefasti.  Inoltre la macchina riesce a cogliere anche le nostre debolezze.

Capisce quali notizie e parole ci faranno reagire in modo emotivo e ce ne dà sempre di più – spiega il fisico Cristianini -. Dal punto di vista dell’utente si crea una potente illusione di una realtà diversa da quella che è e quindi la polarizzazione, la radicalizzazione, la dipendenza comportamentale sono dei rischi concreti”.

IA, l’etica e i “consigli per gli acquisti”?

Per questo motivo sono necessarie delle leggi giuste che ne mitighino i rischi, ma per farle è necessario conoscere le regole di questo tipo di intelligenza. Da una parte ci sono gli ingegneri del software ma dall’altra deve esserci chi decide quali tipi di comportamenti ci aspettiamo dalla macchina. Dunque, quali valori si vogliono inserire nei software. il fisico Cristianini nella sua conclusione riflette sul fatto che, essendo l’insieme dei valori mutevoli nel tempo e nello spazio, la questione debba risolversi nei parlamenti.

Ma l’etica quanto si coniuga con gli interessi economici che spesso guidano i “consigli per gli acquisti”?