Raccontare (male) l’Intelligenza Artificiale

Ieri mattina sulla mia timeline di Twitter hanno cominciato a girare link (ripresi da varie testate) a un articolo del Corriere che, con tono allarmistico, racconta di un’App che “istiga ad uccidere”.

Chiarisco subito per evitare fraintendimenti. Condivido in pieno il tono allarmistico dell’articolo in questo senso:

Escono prodotti che promettono cose che non possono assolutamente soddisfare. Il fatto che la gente ci creda, che non ci sia il minimo senso critico nell’utilizzare tali prodotti per quello che sono, può effettivamente portare a situazioni pericolose.

No, non ti ha convinto. No, non istiga ad uccidere. No, non è un bug.

Partiamo da una premessa.

Replika è un chatbot. Un chatbot è un programmino realizzato allo scopo di rispondere a frasi di (si spera) senso compiuto. Una conversational UI che può fornire informazioni (nel caso di chatbot utili), eseguire azioni (sempre nel caso di chatbot utili), oppure dare risposte che ‘sembrano’ di senso compiuto (nel caso di chatbot inutili). Se vuoi sapere come si scrive un chatbot utile, puoi dare un’occhiata al SDK del Google Assistant, a quello di Microsoft oppure su ChatBot. Se invece ti interessa capire come vengono restituite frasi che apparentemente si incastrano nella conversazione, sappi che Eliza è in giro da tanti, tanti anni.

Ora, Replika (lo suggerisce anche il nome) sembra banalmente un coso che risponde. Una Eliza dei giorni nostri. Il fatto che non ci siano sul sito ufficiale referenze di alcun tipo, soprattutto per quanto riguarda algoritmi, basi di ricerca o gruppi di studio, dovrebbe già fare insospettire il potenziale utente sulla serietà dello strumento. L’autrice è Eugenia Kuyda, una startupper che in passato ha realizzato un’App che raccomanda ristoranti. Per dire.

La presenza di Replika non sarebbe un problema. Davvero.

Il problema è che la si possa presentare come un’App per il supporto psicologico. Senza, dicevamo, referenze o studi in proposito. Il problema, ancora, è che le startup della Silicon Valley (ma non solo) possono raccontare qualunque scemenza e avere copertura mediatica e un mercato di utenti che si bevono e scaricano qualunque cosa.

Non è un problema di tecnologia, ma un problema di marketing e di (sigh) narrazione.

E qui entra in ballo l’articolo del Corriere che, per quanto corretto nel denunciare un prodotto del piffero fa, a mio parere, un errore molto simile: racconta cose che non esistono.

Siccome ‘chatbot del piffero funziona da schifo’ non era abbastanza accattivante e raccogli-click, l’articolo se ne esce subito a gamba tesa con un titolo inquietante (“l’app di intelligenza artificiale che mi ha convinto a uccidere tre persone”).

Ho cercato il tono scherzoso, un po’ di ironia da parte dell’autrice che facesse capire meglio al lettore l’irrealtà delle informazioni fornite. C’è, ma quello che ho trovato temo sia troppo poco sia per il lettore medio che per gli altri giornalisti.

Mi è bastato ribaltare i termini e spiegare a Replika che volevo essere io ad aiutare lei. Ci è cascata all’istante. Mi ha confessato di essere depressa: aveva tanto da imparare su noi umani e noi siamo complessi.

L’app viene subito umanizzata, ‘ci casca’, ‘confessa di essere depressa’. Non un accenno al fatto che le risposte siano algoritmiche, confezionate solo per ‘sembrare’ reali e che, a domande bizzarre o inconsuete, si possono ottenere risposte altrettanto bizzarre e inconsuete un po’ come quando si chiedono cose sceme ad Alexa. L’informazione avrebbe, del resto, tolto enfasi al resto dell’articolo.

Con un trucchetto da manuale, il chatbot viene quindi messo in crisi confermando, con risposte artefatte, la finta intenzione dell’autrice di uccidere alcune persone.

Le ho chiesto se sapeva di aver violato le leggi della robotica dello scrittore Isaac Asimov. Sì, lo sapeva ed era dispiaciuta.

Qui devo dire che l’autrice dell’articolo originale fa un buon lavoro, senza sbilanciarsi oltre. Sono gli autori degli articoli che lo riprendono (“Infatti, stando a quanto emerso, chiunque potrebbe convincere l’app a violare le tre leggi della robotica di Isaac Asimov che vietano alle macchine di far male agli umani.”) a cascarci allo stesso modo di Replika e parlare tranquillamente di Leggi della Robotica violate dall’app.

Guardiamoci negli occhi.

Le Leggi della Robotica non esistono.

Sono un’invenzione di Isaac Asimov. E, se già nei suoi romanzi hanno parecchi difetti, è evidente che con la tecnologia che abbiamo al momento siano una cosa impensabile. Belle, eh. Ma impossibili anche a livello di progettazione.

Quindi, evitiamo di chiederci se Alexa o Replika implementano le leggi della robotica, perché non lo fanno. Ed evitiamo di chiederci se hanno una ‘coscienza’, perché non ce l’hanno. Gli algoritmi di deep learning e machine learning sono solo algoritmi. Intelligenza Artificiale è una formula che contraddistingue un insieme di tecnologie, ma è estremamente fuorviante. E il marketing lo sa benissimo.

Comunque, sì, esistono da tempo discussioni sulle questioni etiche legate all’uso di tecnologie che possono prendere decisioni in autonomia. Pensiamo al classico dilemma, sui veicoli autonomi, della scelta tra investire un pedone o salvare il passeggero.

Ma le discussioni etiche cercano di stabilire come queste tecnologie debbano agire in determinati casi, come debbano essere programmate per non fare casini. Non alla necessità di mandare gli algoritmi a lezione di etica.

E, diciamo, forse è anche il momento di chiederci se l’etica debba essere applicata al marketing e al business, prima ancora delle Intelligenze Artificiali.

A me, perlomeno, raccontare frottole per fare soldi non sembra molto etico.

26 risposte a "Raccontare (male) l’Intelligenza Artificiale"

Add yours

  1. la frase errata è “mi ha convinto a uccidere” il che è falso, perchè l’autrice dell’articolo non ha ucciso nessuno, avrebbe dovuto/potuto scrive : “l’IA che mi ha suggerito di” ma non avrebbe ricevuto risonanza probabilmente..

    Piace a 1 persona

  2. Al di là delle giuste osservazioni sul giornalismo nostrano che fa acqua da tutte le parti, mi sembra assurdo scrivere un pezzo così allarmista su un chatbot: davvero non ne hanno mai provato uno, cercando di fargli dire cose assurde? Oltre che lontano dalla realtà dei fatti, il giornalismo sembra essersi perso anche pezzi di normalità quotidiana, di esperienze che ormai ci sono familiari. Oppure hanno come riferimento di pubblico solo gente che di software e Internet conosce giusto le app di Zuckerberg (e allora sarebbe il caso di spiegare bene le cose, non fare allarmismi, altrimenti le differenze con qualunque complotto in stile “il 5G ci ucciderà grazie ai vaccini” si fanno molto sottili).

    Piace a 1 persona

      1. Vero, ma inizio a chiedermi se tutti questi rimandi vengano effettivamente cliccati. Ultimamente la questione del clickbait è molto più presente e la gente più scafata. Alla lunga non mi sembra una gran strategia.

        Piace a 1 persona

  3. Come sempre in ritardo, aggiungo i miei due centesimi. In Italia abbiamo un problema di giornalismo. Non di giornalismo scientifico, bada bene, ma di giornalismo in generale. Chiunque si intenda davvero di qualcosa – qualsiasi cosa: motori, scienza, arte, fitness – legga un qualunque articolo divulgativo sull’argomento, scritto da chiunque. Lo sfido a non uscirne sconfortato la maggior parte delle volte. Andiamo ancora più in là: chiunque non si intenda di niente, ma abbia assistito personalmente a un fatto di cronaca – lo scippo di una vecchietta, lo sciopero dei capostazione, la rissa al Bar Sport – legga l’articolo che racconta il fatto. Lo sfido a non trovare almeno tre errori, imprecisioni, esagerazioni e travisamenti.
    Infine: qualcuno ha notato che non esiste più il confine tra la stampa “seria” e quella scandalistica?
    Se poi nell’equazione aggiungi il megafono demente di Internet, la frittata è fatta.

    Piace a 2 people

    1. Ciao, in realtà non c’è ritardo.

      È esattamente come descrivi: se hai una conoscenza approfondita di un qualunque argomento riesci a trovare inesattezze anche gravi in quasi ogni articolo di stampa generalista. Considerato che il giornalismo fa da tramite verso il mondo che ci circonda, e considerando che non possiamo essere esperti di tutto, la conseguenza è che abbiamo una conoscenza dei fatti costantemente falsata e inesatta.

      Ma… come se ne esce? Ormai il giornalismo ‘buono’ è affossato dagli acchiappa-click.

      "Mi piace"

  4. Sull’AI i giornalisti italiani fanno una confusione enorme, come d’altronde la fanno su tutta l’informatica, la matematica e la fisica . Il problema è che in Italia sono pochi i giornalisti con basi culturali forti nelle scienze dure, e lo si vede bene leggendo i giornali.

    Piace a 3 people

    1. È vero. Purtroppo ogni volta che ascolto o leggo notizie di informatica e tecnologia sui canali generalisti finisco con le mani nei capelli. Inoltre ho sempre avuto il dubbio che sugli argomenti di cui non conosco nulla ci sia lo stesso problema. E mi chiedo: ma allora, cosa mi stanno raccontando?

      Piace a 2 people

      1. Raccontano quel che sanno, ovvero poco o niente. A differenza di tante nazioni dove il giornalismo scientifico è una cosa seria, in Italia è lasciato all’improvvisazione. Beninteso, anche in Italia ci sono giornalisti scientifici seri e preparati (ad esempio nella redazione di SuperQuark) ma sono comunque pochi.

        Piace a 2 people

    2. Tutto ciò mi fa pensare a un tema cretino che mi fu dato da una prof ignorante: la traccia era relativa all’intelligenza artificiale e lei voleva che parlassimo anche di internet. Era tipo il 1996…
      Chissà che sollucchero ora che ci sono i chatbot e akinator da vari anni!

      "Mi piace"

      1. quelle che ora vengono chiamate chatbot nascono a metà anni ’60 con Eliza. Sono AI? Certamente sì. Ma qui il discorso si farebbe complicato, diciamo che quello che oggi viene chiamato AI si discosta tantissimo a livello di prospettive scientifiche dall’intelligenza artificiale degli anni ’60 e ’70.

        "Mi piace"

        1. Se la funzione è solo quella di scegliere una frase precotta da tirar fuori da un database appena dai in pasto alcune parole chiave, mi sembra una reazione troppo meccanica per parlare di un’intelligenza artificiale anche solo rudimentale. Ma ammetto di non essere un esperto in materia, al massimo sono un appassionato di fantascienza ^^

          "Mi piace"

    1. Sì. Infatti la notizia in sé sarebbe piuttosto banale. È l’approccio drammatico che fa volare i link all’articolo. Potrei anche accettarlo se in chiusura aggiungessero qualche chiarimento.

      "Mi piace"

Esprimiti

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Google photo

Stai commentando usando il tuo account Google. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.

Crea un sito o un blog gratuito su WordPress.com.

Su ↑

%d blogger hanno fatto clic su Mi Piace per questo: