Come funziona l'intelligenza artificiale - Seconda parte
Fra qualche anno l'AI sarà ovunque, con tantissime opportunità ma anche qualche rischio non da poco...
Abbiamo visto nella parte 1 come i software di intelligenza artificiale imparano dai propri errori per migliorare le performance e per fare questo, spesso, utilizzano come ‘palestra’ i videogiochi. L’evoluzione dei software di AI sta tuttavia toccando anche numerosi altri campi, dalla letteratura alle interazioni sociali allo sviluppo militare, con qualche rischio.
Gli sviluppatori di DeepMind, il software AI di Google, hanno iniziato a far leggere al programma centinaia di romanzi rosa per aiutarlo a migliorare le sue capacità dialettiche: questi libri hanno infatti schemi narrativi molto semplici ma anche molto simili tra loro, un elemento che l’AI può imparare a gestire e a rielaborare per interagire con un essere umano. Il passo successivo è l’elaborazione di frasi lunghe ed elaborate, o addirittura la scrittura di interi romanzi. Non a caso, recentemente un libro scritto da un computer ha passato in Giappone la selezione di un premio letterario.
Tutto bene, dunque? Non proprio. Non tutte le intelligenze artificiali sono evolute e capaci allo stesso modo: in molti ricordano un esperimento di AI su Twitter a cura di Microsoft nel 2016 che andò decisamente male. Un bot programmato per rispondere in modo automatico agli altri users e imparare dalle loro frasi iniziò a scrivere frasi razziste, a insultare e a negare l’Olocausto perché i suoi meccanismi interni di emulazione non filtrarono correttamente le informazioni ricevute. Al di là di questi inconvenienti, il dibattito in corso sull’intelligenza artificiale verte su un interrogativo ben più grande: esiste il pericolo che l’AI diventi improvvisamente capace di danneggiare – deliberatamente o per emulazione – l’uomo? Che rischi comporta l'evoluzione dell'intelligenza artificiale?
Questa paura, a quanto pare, non appartiene solo a umanisti e filosofi, ma anche agli stessi ricercatori e imprenditori del campo: per Elon Musk ‘l’intelligenza artificiale è più pericolosa della bomba atomica’ e l’unica soluzione possibile è ‘democratizzare l’intelligenza articifiale: renderla aperta e diffusa per evitare la sua concentrazione nelle mani di pochi’. Per questo, Musk nel dicembre 2015 ha creato un ente non-profit di ricerca chiamato OpenAI, per sviluppare forme di AI amichevoli in grado di portare benefici all’umanità.
Diversamente da Musk, altri giganti del tech, come Google e Facebook, reputano le paure legate all’Intelligenza Artificiale probabilmente eccessive: è interessante comunque che a vigilare sullo sviluppo di queste intelligenze non siano una volta tanto solo umanisti e luddisti, ma anche personalità che della tecnologia e della ricerca hanno fatto la loro ragione di vita. A dimostrazione del fatto che la ricerca è sempre un mezzo e mai un fine.
Scopri le soluzioni Cloud Tiscali per la tua azienda o la tua attività: dal Disaster Recovery alla Sicurezza IT! |