Dopo ChatGPT, è cambiato tutto. Lo stesso termine intelligenza artificiale non aiuta a capire la nuova potente tecnologia. Consapevolezza e responsabilità sono le parole chiave del libro “Intelligenza Artificiale. E noi?” della Fondazione Pensiero Solido, che viene presentato durante la Milano Digital Week
“Intelligenza artificiale. E noi? Una sfida alla nostra umanità” è il titolo del libro pubblicato dalla Fondazione Pensiero Solido, che viene presentato in occasione della Milano Digital Week, lunedì 9 ottobre alle 17 agli IBM Studios, durante l’incontro “Intelligenza artificiale. L’era della responsabilità”. Dal libro pubblichiamo un estratto dell’introduzione del direttore di EconomyUp Giovanni Iozzia
= = = = = = = = = = = = =
E se smettessimo di chiamarla intelligenza artificiale? Perché non lanciare una grande gara internazionale di creatività per trovare un nuovo nome, una migliore locuzione, una più efficace sintesi per indicare, rappresentare e, quindi, comprendere quella che chiamiamo intelligenza artificiale?
“Le parole sono azioni e fanno accadere le cose” (Hanif Kureishi).
Quando quasi 70 anni fa, era il 1956, John MacCarthy lanciò la storica combinazione di due parole, lo fece in un contesto accademico e non poteva immaginare che sarebbe finita nei titoli dei giornali e nei documenti ufficiali di governi e organizzazioni sovranazionali.
Dopo ChatGPT, tutto è cambiato
Dopo ChatGPT, autunno 2022, tutto è cambiato, perché l’intelligenza artificiale è diventata accessibile a tutti nella sua evoluzione generativa: ora è capace di creare testi, immagini, suoni. E questo ha fatto scattare l’identificazione con l’umano: abbiamo (finalmente) creato qualcosa di simile a noi? Senso di onnipotenza da una parte, paura della sostituzione dall’altra.
ChatGPT e compagni, però, non sono davvero intelligenti, ma efficienti, molto efficienti. Le loro “creazioni” sono prodotti di dati statistici che non prevedono alcuna capacità di ragionare o creare correlazioni che non siano basate sulla ricorrenza di dati. (Potremmo chiamarla “azione computazionale”?)
Intelligenza artificiale, le ansie e le paure dei “doomer”
Abbiamo quindi un tema lessicale e, di conseguenza, di narrazione dell’intelligenza artificiale. Siamo invischiati in una miscela di interessi economici, incertezze normative e ansia sociale che spinge a reazioni e comportamenti emotivi. La famosa lettera del marzo 2023, firmata da Elon Musk e altri mille, con la sorprendente e sospetta richiesta di sospendere lo sviluppo delle intelligenze artificiali è diventata il manifesto di tutti i doomer (il termine deriva da doom- catastrofe – e viene usato per definire una persona che vede gli effetti negativi della vita, sia nel mondo reale sia online), con in testa il padrino “pentito” dell’intelligenza artificiale, Geoffrey Hinton.
Laureato in psicologia sperimentale, dagli anni Settanta del secolo scorso studia come le macchine possono apprendere e ora che ha superato i 70 teme che lo facciano troppo rapidamente, che presto non riusciremo a distinguere il vero dal falso, che forse ne perderemo addirittura il controllo. “Poi ho sentito il vecchio tizio che ha creato l’IA dire: ‘Questo non è sicuro’ perché le IA hanno la loro mente e questi motherfucker inizieranno a fare la loro merda’”, ha detto il rapper Snoop Dogg, sintetizzando in maniera colorita e assai diretta l’impatto nel sentimento comune del pentimento del padrino. Che ha continuato a rilasciare interviste e dichiarazioni sulla “emozioni” dell’intelligenza artificiale che, a suo dire, si meriterebbe anche di avere diritti politici.
Parlare dell’AI in modo più sicuro, salubre e consapevole
Per fortuna c’è chi è più lucido: “Non è così che possiamo mitigare i rischi delle intelligenze artificiali anche perché, signori, il modo in cui ne state parlando è altrettanto pericoloso”, ha detto al New York Magazine la linguista computazionale Emily M. Bender. Quindi dobbiamo tutti impegnarci a parlarne in un modo più sicuro, salubre e consapevole. Ma poco ancora ci preoccupiamo dei rischi delle nostre conversazioni. (Per il nuovo nome da dare all’intelligenza artificiale, mettiamo ai voti Alexa, Siri, Bard e vediamo chi la spunta?)
La chiamiamo intelligenza artificiale e ne parliamo come fosse un’entità autonoma, una potenza straniera, dimenticando che è il prodotto di aziende con legittimi interessi economici che, come tali, vanno eventualmente regolati, contemperati e valutati nei loro impatti sociali.
Sentiamo dire che l’intelligenza artificiale ha cominciato, o comunque comincerà, a pensare come noi, quando invece sarebbe utile domandarsi se siamo noi che abbiamo stiamo smettendo di pensare come persone razionali, ricche di un patrimonio di esperienze collettive e individuali che producono la vera intelligenza. Perché è di pensiero che abbiamo bisogno: non a caso, anche nelle tech company, sempre più spesso chiedono aiuto a filosofi e psicologi e sento la necessità di una “visione” più ampia di quella tecnologica.
C’è un bug nella comunicazione dell’innovazione e della tecnologia
Con l’intelligenza artificiale, soprattutto con quella generativa, si ripresenta un bug frequente nella comunicazione dell’innovazione, un’alterazione narrativa che porta alla ricerca del mostro, dell’insolito, dell’inedito per scatenare l’effetto wow! Con queste premesse troppo facile scivolare nel racconto di un mondo governato dagli automi, che ci toglieranno prima il lavoro e dopo la libertà, rinunciando a una riflessione più ampia e produttiva sul cambiamento che va visto, compreso e governato.
Dice Maurizio Ferraris, filosofo della generazione dei baby boomer: “Niente di male per carità, se un lavoro può essere automatizzato in genere è indegno di un umano. Ma sappiamo che finora il salario che retribuiva il lavoro è stata la più diffusa maniera per ridistribuire i beni all’interno di una società. Dobbiamo trovarne un’altra: concentriamoci su questo, e lasciamo perdere tutte le vane fantasie sul Golem che prenderà il potere”.
C’è bisogno di una nuova narrazione sull’intelligenza artificiale per la costruzione di una visione, di una cultura e di un’azione positiva sull’introduzione degli algoritmi nella società.
Come dice Luciano Floridi, al momento “l’informazione è parte del problema e non della soluzione”. Fa circolare messaggi sbagliati, rilancia le reazioni emotive agli stessi, amplifica le paure. Il primo effetto? Produrre smarrimento e non certo consapevolezza. Perché continua ad andare in scena una presunta intelligenza (come potremmo chiamarla, quindi?) con presunte capacità creative? Perché stiamo svalutando la creatività umana ed esaltando (per poi temerla) la creatività della macchina? A Roma ci sono artisti bravissimi che per terra ricreano la cappella Sistina, vogliamo dire che sono come Michelangelo? (Prendo in prestito l’immagine da Luciano Floridi che sull’argomento ne sa più di me e ha molta più capacità di pensiero)
5 punti per una narrazione responsabile dell’intelligenza artificiale
Ci sono almeno cinque punti che non si possono eludere per una narrazione responsabile dell’intelligenza artificiale:
-
- Siamo già nella curva discendente di un hype che ha attraversato media, aziende e società. Questa non è una corsa ma una maratona e creare aspettative troppo alte, far credere che ChatGPT e similia possano fare tutto (di buono e di brutto) ha un solo effetto sicuro: generare una profonda delusione da una parte, preoccupazione e paura dall’altra.
- L’intelligenza artificiale non è una novità. L’automazione viene impiegata da tempo nell’industria e in molti altri ambiti economici, basti pensare alla finanza. Adesso siamo di fronte a un’evoluzione dell’AI con capacità simili all’umano. Quanto più la spacciamo per uguale all’umano, tanto più contribuiamo a creare confusione.
- Bisogna distinguere i campi di applicazione. Usare l’Ai per ridurre o eliminare le pratiche ripetitive e di scarso valore può avere un senso e limitate criticità. Applicarla ai processi decisionali è un’altra storia. E sarà il prossimo passo da valutare con attenzione e responsabilità. Nessuno può dire adesso cosa succederà. Ma può aiutarci vedere un film come Sully, ispirato a una storia vera (sintesi: Tom Hanks è il pilota di un Airbus A320 costretto a un ammaraggio di fortuna nell’Hudson. Tutti salvi, ma lui finisce sotto processo perché non ha seguito la procedura prevista dal simulatore di volo).
- È troppo facile dire che l’AI distruggerà posti di lavoro, è più difficile spiegare perché e come ne creerà di nuovi. È sempre accaduto con le tecnologie dirompenti nella storia dell’umanità, dalla stampa a caratteri mobili alla macchina a vapore. Tutti parlano di questo famigerato prompting, cioè la capacità di fare le domande giuste e nel modo più efficace al software. Ma c’è da spiegare che la vera nuova competenza necessaria sarà la capacità di comprendere la macchina, come fa la psicologa dei robot nei racconti di Asimov. Come abbiamo imparato a fare (quasi) tutti noi dall’inizio del secolo scorso con le automobili.
- C’è un aspetto geopolitico dell’intelligenza artificia che segnerà i percorsi dei prossimi anni molto più di qualsiasi Act comunitario. Gli Stati Uniti hanno già diversi campioni in materia e nel 2023 li abbiamo visti fotografati davanti alla Casa Bianca. Se si collegassero i puntini, poi, si dovrebbe accendere un riflettore sull’exploit di Nvidia, compagnia che da sola vale più del 40% della Borsa di Milano: produce hardware per le soluzioni di intelligenza artificiale. La Cina lavora in maniera più coperta ma non è certo ferma. Dove sono i campioni europei e quelli italiani?
(E se questa intelligenza artificiale la chiamassimo Cervello Artificiale e basta?)
Fonte: economyup.it