Incoscienza artificiale

Filosofia vs IA (marzo 2025), Massimo Chiriatti

DATA – COMPUTER – ALGORITMI

Tanti dati accumulati, gestione dei dati con tecnologia autonoma, software di gestione più semplici: i costi di questi materiali scendono e ciò permette di rivolgersi all’ IA per avere dei vantaggi economici.

Alle tecnologie automatiche (per es. Excel Word) oggi si aggiungono tecnologie autonome: ossia macchine che non partono dalle istruzioni dei programmi ma dagli stessi dati. La macchina fa delle correlazioni tra i dati, trova delle irregolarità e delle regolarità e ce le presenta come risultati. La macchina automatica da un risultato certo, deterministico, esegue un programma scritto da noi. Invece la macchina autonoma (IA) legge i dati e presenta un risultato probabilistico, che non è certo. Infatti la macchina IA lo specifica.

Nella macchina calcolatrice il modello è top Down: noi scriviamo il programma e quindi il metodo è deduttivo, dal generale al particolare.

Invece con le IA il metodo è induttivo: parte dal particolare, dai dati e inizia a tirar fuori dei pattern, una ipotesi o una teoria che però noi dobbiamo validare.

Il giudizio umano conta molto di più rispetto al passato.

Quando in un reparto ho pochi dati ma il responsabile conosce le regole è meglio usare il método deduttivo. Ma dove ho poche regole e molti dati posso usare l’IA. Il risultato però non è sicuro: devo stare attento a non fare discriminazioni, alle asimmetrie e alla sostenibilità ambientale. Bisogna trovare un equilibrio fra ciò che la macchina fa risparmiare rispetto alla sottrazione di lavori.

IA contiene la possibilità di creare dei pregiudizi, può amplificare questi bias, queste distorsioni sistematiche e se non siamo noi a controllarli continua a fare i nostri errori del passato. Non dobbiamo dare responsabilità morale alla macchina perché non ha corpo quindi non la posso sanzionare. La responsabilità è di chi l’ha progettata e di chi la sta usando.

La chiamo incoscienza artificiale perché questa macchina fa correlazioni, non fa relazioni causa ed effetto. Non ha un corpo per fare esperienza del mondo e non conosce quindi il significato.

La macchina conosce bene la sintassi in tutte le lingue, però la semantica, la relazione tra le parole e la realtà, non ce l’ha, non sa cosa sta scrivendo, non sa cosa sta facendo, non sa di esistere. La macchina non ha nessuna coscienza di sé. Ci imita nel comportamento, ma non è che sente. È incosciente.

Daniel Kahneman ipotizza che nel nostro cervello abbiamo due sistemi: uno è quello intuitivo immediato. Il sistema due è invece quello più lento e complesso, che consuma più energia. Le risposte che l’IA trova su internet sono molte e diverse a seconda delle preferenze che ciascuno vuole. Qui il tema etico diventa importante: non c’è giusto e sbagliato, è il contesto che dobbiamo analizzare. Dobbiamo mettere dei sistemi che guidino il risultato algoritmico affinché non ci siano violazioni di legge e anche etiche.

Nella pratica di un progetto ciò che dobbiamo fare è unire l’obiettivo (il futuro) con i dati (il passato); è una relazione fra passato e futuro. La macchina IA fa delle previsioni attraverso correlazioni dei dati. La macchina non spiega; è lo storico che spiega.

La macchina non sa immaginare il futuro, non ha un pensiero strategico. È questa ideazione che la macchina non ha. Noi dobbiamo aumentare la nostra creatività per dargli il prompt giusto, e per usare la tecnologia nel modo giusto

Le macchine sono la somma di questi tre elementi: dati computer algoritmi. Noi siamo molto di più di questa somma. Il caso della baionetta: la baionetta non può tagliare il pane, è fatta per uccidere una persona. Quindi è già nella progettazione che ci sono i valori. La tecnologia non è né. positiva né negativa, ma non è neanche neutra. La scienza, come conoscenza, è neutra, ma quando abbiamo un coinvogimento umano a qualsiasi livello, come nella tecnologia, perdiamo la neutralità e ci mettiamo i nostri valori.

Post navigation