Le Intelligenze Artificiali ci giudicheranno indegni?

Scenario tipico dei nostri incubi futuristici apocalittici è quello delle intelligenze artificiali (o dell’Intelligenza Artificiale, tosta, a lettere maiuscole, nel caso sia integrata in un solo soggetto) che decidono, ça va sans dire, di eliminare l’umanità perché indegna di proseguire nella sua esistenza. Che sia ritenuta una minaccia per le nuove entità, per il nostro pianeta, per dovere morale, queste intelligenze di solito arrivano alla conclusione logica che l’universo stia meglio senza l’umanità. E amen.

Che siano stati provocati o che ci siano arrivati in seguito a un ragionamento, i vari Skynet, Ultron, Matrix, Daemon, Berserker, Spartacus, Metalhead, Boston Dynamics e soci decidono quindi di eliminarci, annientarci e/o metterci da parte in maniera più o meno cruenta.

Uno scenario per noi estremamente inquietante, soprattutto in questo decennio nel quale vediamo una ascesa incalzante di macchine e task autonomi più o meno sofisticati (intelligenze vere e proprie, per fortuna, non ancora) che ci circondano in ogni ambito.

Uno scenario inquietante che, come tutte le cose davvero inquietanti, sotto sotto ci affascina.

Perché almeno un pochino noi sentiamo di meritarcelo, il giudizio di un’intelligenza esterna. E sentiamo pure di meritarci l’Apocalisse, che sia divina o meccanica, perché siamo consapevoli della nostra natura piccola, corrotta e malvagia.

Ma sinceramente, dobbiamo davvero aspettarci un futuro di questo tipo?

Forse, come prima cosa, dovremmo scordarci un giudizio morale o etico. Concetti come “L’umanità è malvagia” o “L’umanità è il male” e cose di questo tipo. Per quello che abbiamo scoperto finora, solo i mammiferi sono in grado di elaborare giudizi morali. E spesso noi umani ci riusciamo anche male.

Come possiamo quindi ‘insegnare’ a una Intelligenza Artificiale una cosa che conosciamo poco e che sappiamo usare malissimo? E come possiamo aspettarci che questa Intelligenza Artificiale, in assenza di una struttura sociale, sviluppi questa capacità per conto proprio? Diciamo che come minimo non sarà facile.

Ciò che potremo creare facilmente, da qui in avanti, saranno ‘macchine per la soluzione di problemi’. Quindi non creature viventi, non esseri senzienti, ma solo qualcosa in grado di prendere decisioni ed elaborare piani, ma al solo scopo di risolvere problemi. Di conseguenza, ad occhio, prima che un’Intelligenza Artificiale sia in grado di produrre giudizi morali degni di questo nome passerà parecchio tempo. E forse non succederà mai.

Che culo, dai.

E qui, forse, ci andiamo a fregare.

Mettiamo di risultare, agli occhi dell’Intelligenza Artificiale, un problema. E che l’Intelligenza Artificiale sia programmata per eliminare il problema. Attenzione, eliminare non significa aggirare, risolvere, attendere, analizzare e altre mille alternative altrettanto valide. Insomma, proprio eliminare.

Non è semplice diventarlo, credo, perché in che modo l’umanità potrebbe diventare un bersaglio ‘logico’ per una Intelligenza Artificiale?

  1. Potrebbe non volere costruire graffette all’infinito.
  2. Potrebbe richiedere per errore la propria eliminazione.
  3. Potrebbe essere nel posto sbagliato al momento sbagliato.
  4. Potrebbe competere per le stesse risorse.

Supponendo quindi che 1 sia improbabile e, nel (plausibile) caso 2 diciamo che ce la saremmo cercata, e nel caso 3 potremmo semplicemente avvertire, rimane il caso 4 a darci da pensare.

Come potrebbe l’umanità competere per le stesse risorse con una IA? Questa non consuma cibo e ossigeno, e non richiede (per ora) lo stesso spazio vitale e la stessa quantità di materie prime. Dunque, siamo salvi? Mah, e se usassimo la stessa energia? Se in caso di penuria improvvisa di energia decidessimo di competere? Potrebbe forse decidere, la nostra simpatica IA, di eliminare un concorrente?

Boh. Interessante, però.

Ci sono tanti modi, ancora, per evitare una situazione del genere, ma il post è diventato troppo lungo, e ti vedo che sbadigli.

Ciao!

11 risposte a "Le Intelligenze Artificiali ci giudicheranno indegni?"

Add yours

  1. secondo me, la cosa più interessante della IA è il concetto di Machine Learning. Quindi immaginiamo di dare ad una IA vtutti i vari testi filosofici, sul bene e sul male, tipo Cartesio, Socrate, Spinoza. Sarebbe anzitutto interessante poter conversare con una IA che abbia appreso tutti questi concetti. In secondo luogo, una IA vive all’interno di un hardware, un hardware che consuma energia, elettrica. La stessa energia elettrica che utilizziamo noi umani per costruire IA. 🙂

    Piace a 1 persona

    1. Il caso Norman è intrigante e stimolante (soprattutto per la narrativa) ma, attenzione, vale un discorso di base: al momento non esistono Intelligenze Artificiali.

      Non ci sono quindi ‘dark thoughts’ e non ci può essere una ‘AI psychology’ perché, semplicemente, gli algoritmi di deep learning e machine learning non pensano. Sono dei ‘cosi’ molto abili a scimmiottare e trovare risposte che ‘si adattato a un precedente addestramento. Quindi ogni risposta ‘inquietante’ è solo il risultato di un addestramento incompleto oppure falsato in partenza.

      In ogni caso il tutto è molto divertente e diventa un vero e proprio parco giochi se ti interessi di narrativa e fantascienza 😀

      Piace a 1 persona

Esprimiti

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.

Blog su WordPress.com.

Su ↑