Di seguito provo a riepilogare qualche pezzo interessante su Chat Gpt, assieme ad alcune considerazioni personali.
Nota: questo post nasce il 7 aprile come una tantum, ma nei giorni seguenti ho pensato di tenerlo aggiornato e farne una specie di utile repository, a beneficio mio e di chi legge. Anche perché potrebbe essere interessante, domani, ricostruire la questione e il dibattito sull’intelligenza artificiale, che per la prima volta sta diventando mainstream.
Premesse
Qui trovate un articolo molto bello del New York Times, gran pezzo di giornalismo, sul fondatore di ChatGpt, Sam Altman. Da leggere, anche perché l’autore ha il raro dono di saper bilanciare dubbi e certezze.
Qui la lettera di mille appartenenti alla comunità tech sui pericoli della AI: chiedono una moratoria di sei mesi. Siamo a marzo 2023.
30 marzo 2023
Il Garante italiano per la privacy formula alcune richieste a Open AI, la società che ha sviluppato ChatGpt. Quest’ultima reagisce “spegnendo” l’applicazione nel nostro paese.
Qui il testo della delibera dell’Authority (ecco una sintesi) mentre qui la risposta di Open AI, la società che ha sviluppato Chat Gpt.
Qui un bel podcast di DataKnightmare che riassume l’intervento del Garante italiano, primo al mondo, sulle questioni legate alla privacy. Altri stanno seguendo, segno che la strada è giusta. In questo articolo Guido Scorza, membro dell’Authority, spiega molto bene il senso dell’intervento, e perché non dobbiamo scegliere tra futuro e diritti, come molti tecnottimisti ripetono. Teniamo presente che tanti si sono già gettati a pesce sulla nuova tecnologia, investendo, e sono toccati direttamente dallo stop. Insomma, sono interessati nel loro parlare.
Questo è un pezzo del Guardian, che annuncia di stare sviluppando una squadra dedicata allo studio di Chat Gpt, delle sue potenzialità giornalistiche e, speriamo, dei limiti. Magari con qualche proposta su come gestire questa tecnologia.
19 aprile 2023
Il sociologo bielorusso Evgeny Morozov, uno tra i più attenti osservatori di Internet, spiega le sue preoccupazioni sull’AI, il “soluzionismo tecnologico” e il ruolo fondamentale dei media nel tenere vivo il dibattito senza accontentarsi delle narrazioni degli uffici stampa di Big Tech. ().
Qui un articolo della MIT Tech Review, non proprio un circolo di luddisti. Da leggere perché ampio e non schierato aprioristicamente. Si parla degli impatti sul lavoro, ma anche di chi deve fare le regole e del ruolo di Big Tech. Si propone il modello del Cern per il ruolo nel world wide web. Faccio notare che il pezzo è del 25 marzo, cioè prima del provvedimento del Garante della Privacy italiano. In quest’altro pezzo, sempre la MIT Tech Review spiega che le società di Intelligenza artificiale potrebbero incontrare più difficoltà del previsto ad adeguarsi alle normative sulla privacy. E che forse si poteva allenare le AI in maniera diversa
25 aprile 2023
Questo è il primo video politico realizzato interamente dall’intelligenza artificiale. A commissionarlo, il partito repubblicano Usa, dopo l’annncio di Biden che si sarebbe ricandidato alle presidenziali del 2024.
28 aprile 2023 – Chat GPT riapre in Italia.
Qui la dichiarazione del Garante della Privacy relativa alla riapertura di ChatGpt in Italia
In questo pezzo per l’Economist, lo storico Yuval Harari (autore, tra l’altro, di Sapiens) spiega le sue preocupazioni riguardo all’AI, a come potrebbe essere la fine della storia guidata dall’uomo. “We can still regulate the new AI tools, but we must act quickly” scrive, chiamando in causa i governi, come si fece per l’energia atomica, che riscrisse l’ordine internazionale. “The first crucial step is to demand rigorous safety checks before powerful ai tools are released into the public domain. Just as a pharmaceutical company cannot release new drugs before testing both their short-term and long-term side-effects, so tech companies shouldn’t release new ai tools before they are made safe. We need an equivalent of the Food and Drug Administration for new technology, and we need it yesterday“. Harari sottolinea anche come l’AI generativa sia in grado di influenzare il dibattito democratico.
2 maggio 2023
Geoffrey Hinton, accademico, uno dei padri dell’intelligenza artificiale, rassegna le dimissioni da Google, dove lavorava da oltre un decennio e si unisce al coro di critiche. “L’unica scusa che mi dò è la solita: se non l’avessi fatto io l’avrebbe fatto qualcun altro”, dice.
7 maggio 2023
Un bel riassunto semplice che fa il punto sull’intelligenza artificiale lo potete leggere qui. E’ del Washington Post, ed è veramente per tutti. Citazione cinematografica nel sommario: “Everything you wanted to know about the AI boom but were too afraid to ask”. Va notato che il Washington Post è di Jeff Bezoes, proprietario di Amazon. E che Amazon non è citata tra le società in corsa per l’AI. Non ancora?
Sempre di oggi, un’intervista del Mit Tech Review a Geoffrey Hinton, uno dei pionieri del deep learning che ha appena lasciato Google, dove ha lavorato per dieci. La sua posizione riguardo all’intelligenza artificiale è cambiata negli anni: ora Hinton la teme, definendola una “minaccia esistenziale”, e mette il mondo in guardia sui rischi. E questo ha fatto scalpore nella comunità degli esperti.
9 maggio 2023
La Harvard Business Review scrive un lungo contributo su come evitare i rischi etici per l’Ai e le nuove tecnologie. Potete leggerlo qui.
13 maggio 2023
Intanto il 14 giugno (data provvisoria) il Parlamento europeo discuterà la norma nota come Ai Act, di portata non inferiore al quella del Gdpr (che ha da poco compiuto cinque anni) per la privacy. Qui c’è un pezzo recente dell’Mit Technology Review che spiega cosa ci aspetta. Qui il pezzo di Luca Tremolada sul Sole 24 ore, che risale a febbraio ma è in italiano. Una volta delineata la posizione di Strasburgo, comincerà il dialogo con Commissione e Consiglio Europeo, il cosiddetto trilogo, procedura standard che porterà al testo finale. Potrebbe volerci più di un anno, qualcuno dice anche due prima che diventi legge, ma l’Unione avrà il vantaggio di fare la prima mossa e anche gli Stati extraeuropei che vorranno fare affari con il grande mercato continentale dovranno adeguarsi; questa legislazione rischia di essere, de facto, lo standard internazionale sulla Ai, e comprenderà anche aspetti controversi come il riconoscimento facciale. E’ previsto (e prevedibile) un intenso lavoro delle lobby per depotenziare la portata del testo finale.
16 maggio 2023
Anche l’Oms, l’Organizzazione mondiale della sanità, prende posizione e mette in guardia sui rischi di un uso “precipitoso” delle nuove tecnologie. I dati di cui sono nutriti i language models, scrive, possono essere imprecisi e generare conseguenze negative per i pazienti. C’è anche un elenco di casistiche. L’organizzazione si dichiara, comunque, “entusiasta” di un uso “appropriato” della tecnologia. La proposta sono 6 linee guida “per l’etica e la governance dell’intelligenza artificiale per la salute”. Da qui potete scaricare il documento.
22 maggio 2023
Sempre l’MIT Technology review in questo pezzo fa una sintesi di quanto stanno facendo i policymakers globali, dando i voti. C’è il Consiglio d’Europa (un’organizzazione umanitaria, diverso dal Consiglio europeo), che sta chiudendo una bozza interessante che comincia con le definizioni – e le cosiddette tassonomie sono la base di qualunque ragionamento politico; ma ci sono anche l’OCSE, che già nel 2019 aveva emesso alcune linee guida che sono la base delle policy occidentali, e le Nazioni Unite. Lettura interessante.
25 maggio 2023
I media riportano di un nuovo super antibiotico in grado di prevalere su batteri farmacoresistenti scovato tramite l’intelligenza artificiale. Qui un pezzo della BBC. Non è detto che arrivi mai all’impiego umano, ma la farmacoresistenza è uno dei problemi principali della sanità globale, ed è un buon segnale, anche perché mostra il volto positivo si questa tecnologia.
14 giugno 2023
Ai Act: il Parlamento di Strasburgo ha approvato il testo dell’Ai Act, che vede fra i relatori il deputato italiano Brando Benifei (Pd). Un testo che prova a fissare uno standard globale per il settore (come già accaduto con il Gdpr), e passa dalle diagnosi mediche ad alcuni tipi di drone, fino ai deepfake. Bandito anche il riconoscimento delle emozioni sul luogo di lavoro, in passato usato in Cina per capire se gli autisti di camion erano stanchi. Tentativi di lobbying ci sono stati, ma molti di più ce ne saranno adesso che il testo entrerà nella fase di Trilogo, la negoziazione con Consiglio europeo e Commissione, e da cui uscirà il documento finale. Potrebbe volerci un anno, e le lobby punteranno sui governi (cioè i membri del Consiglio) per ammorbidirli e blandirli: sono i più sensibili alle lusinghe di Big Tech (“apriremo una sede e assumeremo tremila persone”, magari in un coworking ed esentasse: film già visto). Il centrodestra ha fatto qualche storia, ma alla fine ha ceduto, mi ha detto Benifei. Vedremo in futuro. Una cosa è certa: fra un anno si vota per il rinnovo dell’organo, e se non si arriva in tempo all’approvazione finale, il rischio è che il processo si arresti. A quel punto l’Europa, da prima, potrebbe ritrovarsi ultima. In quel caso, le lobby avranno vinto.
19 giugno 2023
Ai e video porno, questo il tema. In un pezzo del Washington Post si mette in evidenza un’implicazione distante dalla percezione comune, ma ben presente in quella delle forze di polizia: la proliferazione di video pedopornografici generati dall’intelligenza artificiale potrebbe rendere più difficile identificare le vittime (e i violentatori) reali, che si troverebbero “annegati” nel mare dei falsi.
23 giugno 2023
Ancora la Harvard Business Review argomenta che è improbabile che la Ai generi disoccupazione nel lungo periodo, considerato anche il calo demografico nei Paesi occidentali; il problema potrebbe porsi nel breve periodo, data la velocità con cui le imprese stanno adottando la tecnologia. La soluzione, secondo gli autori del pezzo, è spingere di più e non di meno sull’Ai, per far sì che i nuovi lavori creati rimpiazzino quelli vecchi. Una visione estremamente business, a mio parere, e molto teorica. Mi lascia molti dubbi perché la capacità di un lavoratore di riqualificarsi cresce al crescere dell’istruzione, e un conto è parlare di un ingegnere informatico (che peraltro di solito ha un “cuscinetto” di risparmi in banca che gli permette di affrontare la transizione), un altro considerare il content manager pagato 1.500 euro al mese, che vive a Milano e ne spende 1000 per un monolocale e che una transizione del genere non può permettersela. Ma sono visioni.
3 luglio 2023
Ai e futuro del giornalismo: in questo pezzo per Wired ho sentito Orson Francescone del Financial Times, che mi ha spiegato come gli eventi siano sempre più importanti per i media. “La Ai non sa trovare le storie” dice Francescone “perché non ha le fonti: può solo limitarsi a riprendere quanto è stato scritto da qualcun altro”. Ma l’allarme è già suonato per molti lavoratori nel mondo dell’informazione. La Bild, tabloid tedesco, nei giorni scorsi ha annunciato centinaia di licenziamenti, figure che saranno sostituite dall’Ai. Potrebbe non essere l’unica testata a farlo. L’idea che mi sto facendo è che reggerà l’impatto dell’Ai solo il 10% dei giornalisti, forse meno, e sicuramente quelli in grado di fornire valore aggiunto con una propria rete di fonti e un bagaglio di conoscenze sufficiente a fornire interpretazioni personali di spessore. Chi copia (per scelta o per ordine di caporedattori ed editori: ci sono interi gruppi editoriali basati su questo) è spacciato.
15 luglio 2023
Altra declinazione dell’impatto dell’AI, questa volta sul cinema. A Hollywood è in corso il più grande sciopero dagli anni Ottanta, con decine di migliaia tra sceneggiatori e attori che si chiedono che ne sarà di loro. Se per le trame è facile capire le preoccupazioni (le farà ChatGpt in dieci secondi), per gli attori è più difficile La risposta arriva dal sindacato. Riporto testualmente: “I produttori hanno proposto di poter scansionare i volti degli artisti non protagonisti — o comparse — pagandoli un giorno di lavoro, e di poter possedere e utilizzare la loro immagine «per l’eternità, in qualsiasi progetto, senza consenso e senza compenso“. In pratica, ti cedo la mia immagine, magari con una scansione full body, e tu ne fai quello che vuoi. Come? Semplice: entri in un tunnel stile Tac e ti fai riprendere da un paio di centinaia di telecamere da qualunque angolazione. Il computer a quel punto avrà materiale sufficiente per generare qualunque tipo di azione, che si tratti di partecipare a una marcia o riprodurre i passanti su una strada affollata. «Se pensano che sia una proposta rivoluzionaria, gli suggerisco di ripensarci», ha detto Duncan Crabtree-Ireland, capo negoziatore di SAG-AFTRA, un sindacato di attori.
Vengo alle mie considerazioni.
- La prima riguarda il giornalismo. Speriamo che non si perda la voglia di insegnare ai giovani il lavoro paziente e spesso (in apparenza) infruttuoso che conduce a scrivere unbuon pezzo. Per capire la realtà non basta una ricerca su internet, e non basta certo ChatGpt. Servono tempo, pazienza e studio: ma il lavoro dei giornalisti è essenziale alla società perché prova a dare la bussola in tempi che corrono veloce. E lo fa più in fretta degli storici, spesso basandosi su intuito ed esperienza, e, soprattutto, partendo da presupposti umani. Cioè il ritmo sul quale dovremmo andare noi, e sulla quale dovremmo tarare il mondo.
- Il problema della responsabilità è centrale: provate a multare un algoritmo per aver scritto scemenze…impossibile. E senza sanzioni, liberi tutti: immaginate l’invasione di fake news in vista delle prossime elezioni di rilievo globale del 2024 (rinnovo parlamento UE e presidenziali americane).
- Il problema di chi prende le decisioni: come sottolineato da Scorza, non è detto che – anche se il pubblico non se ne rende conto – i pericoli non siano reali. Le elite servono a questo , e non lascerei alle masse, che non sono informate, la decisione su cosa è giusto e sbagliato su temi che plasmeranno il futuro.
- Da qui un altro tema, quello del populismo digitale. Nei giorni scorsi Ryanair ha mandato una mail ai clienti invitandoli a fare pressione sulla Commissione europea per limitare gli scioperi dei controllori di volo francesi. Mail empatica, si paventano disagi in vacanza. A mio avviso si è superata un’altra soglia, l’ennesima. Immaginate se le compagnie petrolifere cercassero di convincere i clienti del fatto che la transizione ecologica è negativa perché aumenterà il prezzo della benzina. Le persone leggono, votano, poi uno vale uno e la frittata è fatta. Se ci si rivolgesse alla gente con strumenti potenti di marketing e budget milionari per spingerla a fare lobby anche su transizione ecologica e AI, saremmo nei guai. Su un certo tipo di questioni devono decidere gli informati. Il dibattito, anche duro, è necessario, e nessuno può tirarsi indietro. Ma le posizioni si pesano, non si contano. Piantiamola con questa retorica i cui costi ci troveremo a pagare tra dieci anni, quando non sarà più possibile tornare indietro.
Giusto sottolineare che Chat Gpt non è uno strumento non intelligente (semplificazione giornalistica, utile ma imprecisa). Significa che non va oltre la statistica per fare le proprie affermazioni, non è in grado di scovare il dettaglio che dà il senso a tutto. Ma non sottovalutiamone la potenza.
E, soprattutti, non ripetiamo l’errore fatto a inizio Duemila con Big Tech, quando si lasciò fare, per comodità, interesse e ignoranza. Il risultato dell’influenza dei social e dei motori di ricerca sulle nostre vite è sotto gli occhi di tutti. Brexit, elezione di Trump e fake news comprese.
