Di seguito provo a riepilogare qualche pezzo interessante su Chat Gpt, assieme ad alcune considerazioni personali.
Nota: questo post nasce il 7 aprile come una tantum, ma nei giorni seguenti ho pensato di tenerlo aggiornato e farne una specie di utile repository, a beneficio mio e di chi legge. Anche perché potrebbe essere interessante, domani, ricostruire la questione e il dibattito sull’intelligenza artificiale, che per la prima volta sta diventando mainstream.
Premesse
Qui trovate un articolo molto bello del New York Times, gran pezzo di giornalismo, sul fondatore di ChatGpt, Sam Altman. Da leggere, anche perché l’autore ha il raro dono di saper bilanciare dubbi e certezze.
Qui la lettera di mille appartenenti alla comunità tech sui pericoli della AI: chiedono una moratoria di sei mesi. Siamo a marzo 2023.
30 marzo 2023
Il Garante italiano per la privacy formula alcune richieste a Open AI, la società che ha sviluppato ChatGpt. Quest’ultima reagisce “spegnendo” l’applicazione nel nostro paese.
Qui il testo della delibera dell’Authority (ecco una sintesi) mentre qui la risposta di Open AI, la società che ha sviluppato Chat Gpt.
Qui un bel podcast di DataKnightmare che riassume l’intervento del Garante italiano, primo al mondo, sulle questioni legate alla privacy. Altri stanno seguendo, segno che la strada è giusta. In questo articolo Guido Scorza, membro dell’Authority, spiega molto bene il senso dell’intervento, e perché non dobbiamo scegliere tra futuro e diritti, come molti tecnottimisti ripetono. Teniamo presente che tanti si sono già gettati a pesce sulla nuova tecnologia, investendo, e sono toccati direttamente dallo stop. Insomma, sono interessati nel loro parlare.
Questo è un pezzo del Guardian, che annuncia di stare sviluppando una squadra dedicata allo studio di Chat Gpt, delle sue potenzialità giornalistiche e, speriamo, dei limiti. Magari con qualche proposta su come gestire questa tecnologia.
19 aprile 2023
Il sociologo bielorusso Evgeny Morozov, uno tra i più attenti osservatori di Internet, spiega le sue preoccupazioni sull’AI, il “soluzionismo tecnologico” e il ruolo fondamentale dei media nel tenere vivo il dibattito senza accontentarsi delle narrazioni degli uffici stampa di Big Tech. ().
Qui un articolo della MIT Tech Review, non proprio un circolo di luddisti. Da leggere perché ampio e non schierato aprioristicamente. Si parla degli impatti sul lavoro, ma anche di chi deve fare le regole e del ruolo di Big Tech. Si propone il modello del Cern per il ruolo nel world wide web. Faccio notare che il pezzo è del 25 marzo, cioè prima del provvedimento del Garante della Privacy italiano. In quest’altro pezzo, sempre la MIT Tech Review spiega che le società di Intelligenza artificiale potrebbero incontrare più difficoltà del previsto ad adeguarsi alle normative sulla privacy. E che forse si poteva allenare le AI in maniera diversa
25 aprile 2023
Questo è il primo video politico realizzato interamente dall’intelligenza artificiale. A commissionarlo, il partito repubblicano Usa, dopo l’annncio di Biden che si sarebbe ricandidato alle presidenziali del 2024.
28 aprile 2023 – Chat GPT riapre in Italia.
Qui la dichiarazione del Garante della Privacy relativa alla riapertura di ChatGpt in Italia
In questo pezzo per l’Economist, lo storico Yuval Harari (autore, tra l’altro, di Sapiens) spiega le sue preocupazioni riguardo all’AI, a come potrebbe essere la fine della storia guidata dall’uomo. “We can still regulate the new AI tools, but we must act quickly” scrive, chiamando in causa i governi, come si fece per l’energia atomica, che riscrisse l’ordine internazionale. “The first crucial step is to demand rigorous safety checks before powerful ai tools are released into the public domain. Just as a pharmaceutical company cannot release new drugs before testing both their short-term and long-term side-effects, so tech companies shouldn’t release new ai tools before they are made safe. We need an equivalent of the Food and Drug Administration for new technology, and we need it yesterday“. Harari sottolinea anche come l’AI generativa sia in grado di influenzare il dibattito democratico.
2 maggio 2023
Geoffrey Hinton, accademico, uno dei padri dell’intelligenza artificiale, rassegna le dimissioni da Google, dove lavorava da oltre un decennio e si unisce al coro di critiche. “L’unica scusa che mi dò è la solita: se non l’avessi fatto io l’avrebbe fatto qualcun altro”, dice.
7 maggio 2023
Un bel riassunto semplice che fa il punto sull’intelligenza artificiale lo potete leggere qui. E’ del Washington Post, ed è veramente per tutti. Citazione cinematografica nel sommario: “Everything you wanted to know about the AI boom but were too afraid to ask”. Va notato che il Washington Post è di Jeff Bezoes, proprietario di Amazon. E che Amazon non è citata tra le società in corsa per l’AI. Non ancora?
Sempre di oggi, un’intervista del Mit Tech Review a Geoffrey Hinton, uno dei pionieri del deep learning che ha appena lasciato Google, dove ha lavorato per dieci. La sua posizione riguardo all’intelligenza artificiale è cambiata negli anni: ora Hinton la teme, definendola una “minaccia esistenziale”, e mette il mondo in guardia sui rischi. E questo ha fatto scalpore nella comunità degli esperti.
9 maggio 2023
La Harvard Business Review scrive un lungo contributo su come evitare i rischi etici per l’Ai e le nuove tecnologie. Potete leggerlo qui.
13 maggio 2023
Intanto il 14 giugno (data provvisoria) il Parlamento europeo discuterà la norma nota come Ai Act, di portata non inferiore al quella del Gdpr (che ha da poco compiuto cinque anni) per la privacy. Qui c’è un pezzo recente dell’Mit Technology Review che spiega cosa ci aspetta. Qui il pezzo di Luca Tremolada sul Sole 24 ore, che risale a febbraio ma è in italiano. Una volta delineata la posizione di Strasburgo, comincerà il dialogo con Commissione e Consiglio Europeo, il cosiddetto trilogo, procedura standard che porterà al testo finale. Potrebbe volerci più di un anno, qualcuno dice anche due prima che diventi legge, ma l’Unione avrà il vantaggio di fare la prima mossa e anche gli Stati extraeuropei che vorranno fare affari con il grande mercato continentale dovranno adeguarsi; questa legislazione rischia di essere, de facto, lo standard internazionale sulla Ai, e comprenderà anche aspetti controversi come il riconoscimento facciale. E’ previsto (e prevedibile) un intenso lavoro delle lobby per depotenziare la portata del testo finale.
16 maggio 2023
Anche l’Oms, l’Organizzazione mondiale della sanità, prende posizione e mette in guardia sui rischi di un uso “precipitoso” delle nuove tecnologie. I dati di cui sono nutriti i language models, scrive, possono essere imprecisi e generare conseguenze negative per i pazienti. C’è anche un elenco di casistiche. L’organizzazione si dichiara, comunque, “entusiasta” di un uso “appropriato” della tecnologia. La proposta sono 6 linee guida “per l’etica e la governance dell’intelligenza artificiale per la salute”. Da qui potete scaricare il documento.
22 maggio 2023
Sempre l’MIT Technology review in questo pezzo fa una sintesi di quanto stanno facendo i policymakers globali, dando i voti. C’è il Consiglio d’Europa (un’organizzazione umanitaria, diverso dal Consiglio europeo), che sta chiudendo una bozza interessante che comincia con le definizioni – e le cosiddette tassonomie sono la base di qualunque ragionamento politico; ma ci sono anche l’OCSE, che già nel 2019 aveva emesso alcune linee guida che sono la base delle policy occidentali, e le Nazioni Unite. Lettura interessante.
25 maggio 2023
I media riportano di un nuovo super antibiotico in grado di prevalere su batteri farmacoresistenti scovato tramite l’intelligenza artificiale. Qui un pezzo della BBC. Non è detto che arrivi mai all’impiego umano, ma la farmacoresistenza è uno dei problemi principali della sanità globale, ed è un buon segnale, anche perché mostra il volto positivo si questa tecnologia.
Vengo alle mie considerazioni.
- La prima riguarda il giornalismo. Speriamo che non si perda la voglia di insegnare ai giovani il lavoro paziente e spesso (in apparenza) infruttuoso che conduce a scrivere un pezzo. Per capire la realtà non basta una ricerca su internet, e non basta ChatGpt per scrivere un buon pezzo. Servono tempo, pazienza e studio: ma il lavoro dei giornalisti è essenziale alla società, proprio perché prova a dare la bussola, lo fa più in fretta degli storici, spesso basandosi su intuito ed esperienza, e lo fa partendo da presupposti umani. Cioè dalla velocità a cui dovremmo andare noi, e sulla quale dovremmo tarare il mondo.
- Il problema della responsabilità è forte: provate a multare un algoritmo per aver scritto scemenze…
- Il problema di chi prende le decisioni: come sottolineato da Scorza, non è detto che – anche se il pubblico non se ne rende conto – i pericoli non siano reali. Le elite servono a questo , e non lascerei alle masse, che non sono informate, la decisione su cosa è giusto e sbagliato su temi che plasmeranno il futuro.
- Da qui un altro tema, quello del populismo digitale. Nei giorni scorsi Ryanair ha mandato una mail ai clienti invitandoli a fare pressione sulla Commissione europea per limitare gli scioperi dei controllori di volo francesi. Mail empatica, si paventano disagi in vacanza. A mio avviso si è superata un’altra soglia, l’ennesima. Immaginate se le compagnie petrolifere cercassero di convincere i clienti del fatto che la transizione ecologica è negativa perché aumenterà il prezzo della benzina. Le persone leggono, votano, poi uno vale uno e la frittata è fatta. Se ci si rivolgesse alla gente con strumenti potenti di marketing e budget milionari per spingerla a fare lobby anche su transizione ecologica e AI, saremmo nei guai. Su un certo tipo di questioni devono decidere gli informati. Il dibattito, anche duro, è necessario, e nessuno può tirarsi indietro. Ma le posizioni si pesano, non si contano. Piantiamola con questa retorica i cui costi ci troveremo a pagare tra dieci anni, quando non sarà più possibile tornare indietro.
Giusto sottolineare che Chat Gpt non è uno strumento non intelligente (semplificazione giornalistica, utile ma imprecisa). Significa che non va oltre la statistica per fare le proprie affermazioni, non è in grado di scovare il dettaglio che dà il senso a tutto. Ma non sottovalutiamone la potenza.
E, soprattutti, non ripetiamo l’errore fatto a inizio Duemila con big tech, quando si lasciò fare, per comodità, interesse e ignoranza. Il risultato dell’influenza dei social e dei motori di ricerca sulle nostre vite è sotto gli occhi di tutti. Brexit, elezione di Trump e fake news comprese.