Negli ultimi giorni la rete è stata scossa dal risultato dell’esperimento condotto da Facebook, in cui due intelligenze artificiali, due bot, hanno iniziato a parlare e comprendersi in una lingua a noi sconosciuta.
I due bot, Bob e Alice, sono stati messi uno davanti all’altro per portare a termine uno scenario di collaborazione ipotetico, vale a dire la suddivisione di alcuni oggetti in seguito ad una contrattazione uno contro uno. Durante il test i bot hanno conversato in inglese finchè non hanno iniziato poi a basare gli scambi su una lingua deformata, non regolarizzata dalle tradizionali regole sintattiche.
Facebook per questo ha subito interrotto l’esperimento e qualcuno è subito entrato nel panico pensando che l’intelligenza artificiale stesse già cospirando contro di noi.
In realtà quello che è avvenuto è stato semplicemente dovuto ad un errore di programmazione dei ricercatori che invece di costringere i bot a parlare in un inglese comprensibile a noi, si sono limitati ad inserire questa istruzione come preferibile ma facoltativa. Bob e Alice sono stati quindi lasciati liberi di ispirarsi a vicenda, trovando una comunicazione più efficiente per loro.
Il processo è simile a quello che avviene nella nostra società quando vengono inventate abbreviazioni e contratture che con il tempo vengono poi comunemente accettate, anche se scorrette, solo che la velocità del processo in questo caso ha sorpreso e spaventato.
I bot sono stati quindi riprogrammati con la clausola del linguaggio comprensibile e le operazioni sono terminate come aveva pensato in origine il gruppo di ricercatori.
Cosa ci fa capire questo però?
Che quando si programmano questo tipi di algoritmi è di fondamentale importanza non lasciare nulla al caso.