LE SFIDE ETICHE DELL’INTELLIGENZA ARTIFICIALE Testimonianza di Andrea Carobene Un mondo in trasformazione 1. Cos’è e come opera l’intelligenza artificiale 2. Le side etiche 3. La risposta alle side Se chiedessimo ad un’intelligenza artificiale quale GPT di definirci che cos’è l’IA, otterremmo la seguente risposta: Parole importanti: EMULARE, ANALIZZARE, TRARRE CONCLUSIONI. ChatGPT in questo caso non menziona situazioni nelle quali vengono prese decisioni inerenti alla nostra vita quotidiana senza alcun intervento umano. Un esempio potrebbe essere la selezione automatica dei CV, oppure verificare l’affidabilità creditizia di un cliente e così via. Divorzio efficienza/intelligenza: Le macchine sono molto più efficienti di noi umani, tuttavia non sono intelligenti in quanto non comprendono a fondo gli argomenti. Un articolo del 1950 di Alan Turing spiega come si misura l’intelligenza. Uno sperimentatore pone quesiti sia ad una persona umana, sia ad una macchina. Se lo sperimentatore non riesce a distinguere tra le risposte date dalla persona e dalla macchina, allora tale macchina si dice che ha superato tale test. Conversando con ChatGPT si possono riscontrare risposte paragonabili ad un umano. 3 categorie: SUPERVISED LEARNING: L’apprendimento supervisionato è quello in cui i dati forniti alla macchina hanno un’etichetta. Io dico alla macchina che tipo di dati gli sto dando e chiedo alla macchina di fare delle cose su quei dati. UNSUPERVISED LEARNING: L’apprendimento non supervisionato è una tecnica di apprendimento automatico che consiste nel fornire al sistema informatico una serie di input che egli riclassificherà ed organizzerà sulla base di caratteristiche comuni per cercare di effettuare ragionamenti e previsioni sugli input successivi. REINFORCEMENT LEARNING: Nell’apprendimento rinforzato la macchina usa come dati d’ingresso le risposte che ha avuto dall’ambiente. La macchina trasforma le immagini in vettori, analizza tali vettori e capisce cosa distingue una mucca da un altro animale. L’intelligenza artificiale riesce a distinguere la mucca proprio come ad un bambino gli viene mostrata la distinzione tra ciò che comunemente chiamiamo mucca e pecora. Se quindi viene mostrata l’immagine di una mucca viola all’IA, questa riconoscerebbe l’immagine dell’animale, ma, esattamente come un bambino direbbe che si tratta di una mucca strana con un manto insolito. Questo programma si chiama Orange, disponibile a tutti. Secondo esempio: Clusterizzazione non supervisionata. Clusterizzare significa dividere in gruppi che hanno affinità. In questo esempio abbiamo una classificazione di operai: quali sono i due gruppi che l’IA ha tirato fuori? Ha messo insieme tutte le persone con e senza casco. Netflix ci suggerisce i film da guardare, Amazon ci suggerisce cosa comprare e Spotify quali canzone ascoltare: siamo stati clusterizzati sulla base di dati preesistenti forniti agli algoritmi delle piattaforme. Esempio di Regressione. In questo caso è stato chiesto alla macchina di costruire una previsione su quella che sarebbe stata la spesa negli anni futuri da parte degli uomini per l’abbigliamento sulla base dei dati finanziari di quest’anno forniti: inflazione, PIL, consumi delle famiglie (dati ISTAT). Rispetto ai valori reali, c’è stata un’oscillazione del 24%, tuttavia io riesco a capire se il prossimo anno l’abbigliamento per umo scenderà o salirà. A Novembre di quest’anno Meta lancia la piattaforma Galactica. Secondo le previsioni, il sito sarebbe riuscito a rispondere in maniera molto più intelligente rispetto a ChatGPT a tutte le domande di tipo scientifico in quanto nutrito con il database di tutti gli articoli scientifici apparsi. Galactica scompare dopo 2 giorni in quanto forniva risposte errate (es. 1+1=3). Cosa sono i biases? Sono risposte inattese o non volute. Significa pregiudizio in inglese in quanto tali risposte non volute sono legate a dei pregiudizi. Ma le macchine possono avere pregiudizi? Chiaramente no. Allora vediamo come nascono. Esempio: il delivery classista di Amazon. Amazon decide di fornire per 3 mesi le consegne gratuite dei suoi prodotti. Verrà scoperto che i meccanismi di distribuzione dei buoni non consideravano i cittadini residenti in determinati quartieri della città. Si era creata una classificazione classista degli abitanti delle città. Altra questione di sesso e di colore di pelle: è stato scoperto che i sistemi di riconoscimento facciale usati negli Usa avevano una percentuale di errore significativamente maggiore per le donne e per le persone di carnagione scura. Le risposte del chatbot razzista di Microsoft su Twitter è una conseguenza degli input ricevuti dai propri utenti. Di nuovo abbiamo risposte inattese dovute ad un apprendimento rinforzato. COMPAS è uno strumento tutt’ora utilizzato in molte contee americane per aiutare il giudice nella decisione se concedere la libertà su cauzione ad una persona imputata o meno. Cosa fa COMPAS? Va a vedere le caratteristiche dell’imputato e lo paragona con le storie di recideva degli imputati con simili caratteristiche. Il problema è che Pro Publica, un’associazione per i diritti civili americani, ha scoperto che COMPAS aumentava la probabilità di ricommettere lo stesso reato per gli imputati di pelle scura: c’era più probabilità di ottenere la libertà su cauzione per un imputato di pelle bianca. La decisione dell’algoritmo influenzava la decisione di libertà o meno degli individui, questo aveva ripercussioni a livello giuridico in quanto il giudice delegava tale decisione alla macchina senza fornire spiegazioni esaustive alla controparte. L’uomo per l’IA è un business man, un pilota, un uomo d’affari; la donna viene identificata come una babysitter, receptionist, infermiera e così via. Questi algoritmi sono stati nutriti con tutta la nostra letteratura e ciò che emerge sono queste situazioni sbilanciate. Una soluzione al problema potrebbe essere non identificare il genere nei CV per l’assunzione in società. Tuttavia emergono ulteriori problemi legati a certe caratteristiche che caratterizzano il sesso maschile da quello femminile. Una nuova mediocrità: noi ci affidiamo a delle macchine per ricevere soluzioni ai nostri problemi. Ad esempio raggiungiamo le località attraverso le applicazioni di Google Maps che ci guidano a destinazione senza però fornirci un orientamento completo. Le macchine ci pongono di fronte a questioni nuove alle quali noi non riusciamo a trovare una risposta. Ad esempio la macchina che si trova a dover decidere quali categorie di persone investire. Un esempio concreto ci è stato posto durante le cure contro il COVID-19. In tale situazione bisognava decidere se fornire le cure (limitate) ai pazienti più giovani con maggiori probabilità di sopravvivere, oppure ai più anziani che sono per natura più fragili. Tutti noi viviamo in un eco chamber: i nostri amici tendenzialmente hanno preferenze simili alle nostre. Ad esempio, se mi circondo di persone terrapiattiste e continuo a ricevere informazioni che mi convincono del fatto che la terra sia piatta, allora io mi autoconvincerò di questa informazione falsa senza sviluppare una mia visione critica. L’IA finisce per conoscermi meglio di me stesso. Io conferisco moltissime informazioni private concedendo la mia geolocalizzazione. Il software mi dice che almeno il 70% della popolazione si sposta dove la maggior parte delle persone è della stessa etnia. L’algoritmo del segragation model di destra potrebbe essere quello utilizzato oggi in Iran per capire quali donne e uomini incarcerare per evitare che in futuro la popolazione giovanile si ribelli. La domanda è: l’IA un giorno sarà capace di essere intelligente tanto quanto noi uomini? Sarà in grado di superare la nostra intelligenza e prendere il controllo su di noi? Da Vinci era l’antenato di ChatGPT3 (versione 2). Sarà capace questa intelligenza artificiale di darsi dei fini che corrispondono con gli obiettivi della specie umana? Ma quali obiettivi ha la specie umana? Punto di vista del testimone e di chi lavora in OpenAI: Prescindendo da un discorso di fede e ci focalizziamo dunque su una prospettiva riduzionista, se pensiamo che la coscienza umana è data da funzioni cerebrali e le funzioni cerebrali sono neuroni che funzionano con un potenziale d’azione (passaggio di segnali sulla base di impulsi elettrici), possiamo notare che questo meccanismo corrisponde esattamente al funzionamento di una rete neurale. In linea di principio, perché io non posso immaginare una rete neurale talmente potente che acquista coscienza di sé stessa? Se esiste questa possibilità, vale la pena rifletterci sopra. L’IA oggi è in grado di scrivere articoli di giornale perfettamente pubblicabili, di realizzare opere d’arte e di compiere in generale azioni che si pensava appartenessero alla sfera creativa della persona umana. Nel diagramma: sull’asse delle x ci sono le risposte tecnologiche, mentre sull’asse delle y abbiamo risposte più sul versante etico, filosofico e normativo. Il concetto dell’imprevisto: la cosiddetta ‘serendipità’, utile ad ampliare i nostri orizzonti e i nostri gusti. Nei sistemi di raccomandazione con rumore si sta cercando di introdurre questo concetto. L’anonimizzazione è estremamente complicata. Le reti neurali arrivano ad avere miliardi di parametri, dunque noi umani non potremo mai sapere come l’IA sia arrivata ad una certa conclusione. Ci affidiamo a delle macchine per prendere determinate decisioni senza saperne le ragioni. Nessun uomo potrà mai sapere come mai ChatGPT si comporta in quel modo. L’IA non ragiona come noi, utilizza modalità differenti. Questo possiamo vederlo nell’esempio sopra dove, affiancando all’immagine di un panda (riconosciuto come tale dall’IA) una percentuale molto bassa di un suono, l’IA cambia decisione e riconosce un gibbone invece che un panda. Una delle soluzioni proposte è quella di non delegare esclusivamente alla macchina le decisioni da prendere. Bisogna dar la possibilità all’umano di poter intervenire e aggiustare eventuali errori. Occorre sempre che nel processo di costruzione di una macchina artificiale venga sempre coinvolta la collaborazione umana (‘human in the loop’). La pontificia accademia delle scienze ha chiamato dei ricercatori per discutere su quelli che potevano essere i principi dell’IA etica. Tale documento è firmato da Microsoft, IBM ecc. Una delle soluzioni proposte è la seguente: se è vero che le macchine sostituiranno i posti di lavoro, ma, allo stesso tempo creano ulteriore ricchezza, allora si potrebbe distribuire equamente tale ricchezza per garantire una vita dignitosa a tutti e migliorare la società. All’esame se si volesse approfondire questa sfida i due libri sono: - Il futuro senza lavoro - Fatti non foste a viver come robot Proprio per quanto riguarda quest’ultimo aspetto della redistribuzione della ricchezza, in classe ci è stato chiesto cosa pensassimo noi del reddito di cittadinanza (pro e contro). Ne è emerso che sicuramente da un punto di vista etico è un’idea apprezzabile in quanto si vanno a colmare dei gap sociali importanti a livello economico. Tuttavia bisognerebbe integrare a questa politica anche un’adeguata istruzione su come utilizzare le risorse ricevute (magari investire parte delle risorse nell’istruzione dei propri figli). Non va assolutamente sottovalutato il problema in Italia dei lavoratori in nero che percepiscono tale reddito di cittadinanza. Bisogna dunque incentivare le persone a trovare un lavoro piuttosto che percepire il reddito di cittadinanza, in quanto il lavoro porta produttività e di conseguenza migliora la società. La fatica è sempre riuscire a fare una valutazione che tenga conto degli effetti benefici e di quelli indesiderati. Bisogna cercare di fare una valutazione complessiva di tutti gli elementi che ci sono in gioco. Sicuramente l’idea di sostenere i più bisognosi è un’idea apprezzabile da un punto di vista etico, dall’ altra parte bisogna chiedersi chi sono realmente gli individui che dobbiamo e possiamo sostenere. Questo dobbiamo e possiamo da una parte tiene conto di una valutazione etica, quindi un’individuazione dei soggetti, e dall’altra anche una considerazione economica in quanto tutte queste operazioni hanno dei costi e questi costi se impiegati da una parte, non possono essere reimpiegati per alte manovre. Questo reddito non deve essere a tempo indeterminato, ma, nel momento in cui viene erogato, deve necessariamente richiedere delle azioni da parte dei soggetti coinvolti affinché possano utilizzare tali risorse per migliorare la propria posizione e trovarsi un lavoro. Quindi il reddito di cittadinanza deve promuovere la ricerca del lavoro. Il problema dei centri per l’impiego: il centro per l’impiego dovrebbe essere premiato nella misura in cui la persona che vi partecipa trova poi effettivamente un lavoro. La grossa sfida è accompagnare le persone che hanno perso il lavoro o che non lo hanno a trovarsene uno, questo certamente richiede risorse ed energie. Il tema del controllo è difficilissimo: come si fa oggi a controllare fisicamente se una persona che riceve il reddito di cittadinanza non lavori in nero? Sarebbe più corretto dare sussidi diversi in base alla localizzazione geografica (700 euro al sud possono essere sufficienti, a Milano non si può vivere). Un altro tema è legato ai lavoratori che, pur lavorando, vivono in condizioni di povertà. Qui entra in gioco il concetto di salario minimo che dovrebbe essere rivisto.
0
You can add this document to your study collection(s)
Sign in Available only to authorized usersYou can add this document to your saved list
Sign in Available only to authorized users(For complaints, use another form )