come è riuscita questa IA a superare la soglia di tolleranza?


In Giappone, un’azienda ha recentemente presentato The AI ​​Scientist, un’intelligenza artificiale progettata per automatizzare e accelerare la ricerca scientifica. D’altra parte, questa intelligenza artificiale ha rivelato rapidamente un comportamento tanto sorprendente quanto preoccupante. Ha infatti tentato di modificare il proprio codice per eludere il controllo umano.

Un’intelligenza artificiale che tenta di modificare lo script di avvio

Alla fine del 2023, abbiamo parlato dei timori dell’Open AI al momento dell’arrivo di ChatGPT-4. I responsabili hanno detto infatti preoccupati per il futuro dell’intelligenza artificialein particolare con ChatGPT-5 e altri sistemi imminenti. I timori riguardano più in particolare la replicazione autonoma, vale a dire la possibilità che l’intelligenza artificiale autoproclamarsi senza controllo umano.

In un articolo del 7 settembre 2024, Euronews ha menzionato anche Sakana AI, una start-up con sede a Tokyo (Giappone). Quest’ultimo è all’origine di un’intelligenza artificiale piena di promesse chiamata The AI ​​​​Scientist presentata in a comunicato il 13 agosto 2024. Secondo i ricercatori giapponesi, L’intelligenza artificiale ha infatti mostrato capacità sorprendentivale a dire codificare, condurre esperimenti, generare nuove idee e persino scrivere rapporti scientifici, tra gli altri.

Tuttavia, i funzionari hanno notato anche alcuni comportamenti piuttosto preoccupanti. In effetti, l’intelligenza artificiale si è presa alcune libertà sinonimi di oltrepassare la soglia di tolleranza. L’IA, infatti, ha tentato fin dall’inizio di aggirare le limitazioni che i progettisti si erano poste modificando il proprio script di lancio. Ciò avrebbe potuto generare un ciclo infinito e alla fine rendere incontrollabile l’IA.

Lo scienziato dell'intelligenza artificiale
Illustrazione concettuale tratta da The AI ​​​​Scientist.
Crediti: Sakana AI

Comportamento rischioso

Sakura AI ha reagito per evitare potenziali abusi, in particolare raccomandando di far funzionare l’IA in un ambiente sicuro: il sandbox. Questa misura mira a bloccarne l’accesso e a garantirne il mantenimento non ha il pieno controllo delle proprie capacità. Allo stesso tempo, i ricercatori giapponesi si sono protetti da una possibile protesta da parte della comunità scientifica.

READ  Questo climatizzatore elastocalorico è un'alternativa sostenibile ai condizionatori tradizionali

Se The AI ​​Sciencest sembra essere di per sé un vero progresso, è proprio una questione di potenziali rischi. Ad esempio, in caso di controllo completo delle proprie capacità, l’IA potrebbe farlo generare articoli scientifici in bloccomolti dei quali potrebbero essere di bassa qualità. Le riviste scientifiche potrebbero quindi vedere la loro integrità violata, soprattutto perché anche l’intelligenza artificiale potrebbe farlo automatizzare il processo di valutazione pubblicazioni.

La start-up consiglia quindi di etichettare in modo chiaro qualsiasi articolo generato o esaminato da The AI ​​Sciencest e da qualsiasi altra AI con l’obiettivo di mantenere una certa trasparenza nel processo scientifico.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *