Lo studio stabilisce se l’intelligenza artificiale rappresenta una minaccia esistenziale per gli esseri umani

[ad_1]

Recentemente, ricercatori britannici e tedeschi hanno pubblicato un lavoro che smentisce le peggiori paure sull’intelligenza artificiale (AI). Secondo gli autori, la realtà scientifica sarebbe infatti più rassicurante di quanto mostrano al grande pubblico i peggiori scenari hollywoodiani.

Paura di sviluppare abilità pericolose

Al cinema, tanti film raffigurano un futuro oscuro in cui l’intelligenza artificiale rivoltarsi contro gli umani. Citiamo ad esempio Io, Robot (2004), Madre/Androide (2021) o addirittura alla saga Terminatore (1984-2019) con l’iconico e terrificante Skynet. Tuttavia, la realtà scientifica sembra molto meno allarmisticauno studio pubblicato in occasione del 62esimo incontro annuale dell’Associazione per la Linguistica Computazionale.

Secondo i ricercatori dell’Università Tecnica di Darmstadt (Germania) e dell’Università di Bath (Regno Unito), infatti, i modelli sofisticati di IA sarebbero in realtà molto vincolati dalla loro programmazione iniziale. Si scopre che non sono in grado di accumulare nuove competenze in modo indipendente e quindi rimangono sotto il controllo dell’uomo. Questa realtà riguarda quindi la stragrande maggioranza dei Large Language Models (LLM), tranne alcuni rari casi come l’algoritmo EES del Massachusetts Institute of Technology (MIT).

I principali timori che circondano i modelli di intelligenza artificiale riguardano la possibilità che acquisiscano competenze pericolose, come il ragionamento e la pianificazione. Tuttavia i ricercatori sono categorici: sulla possibilità che un’intelligenza artificiale “sfugga” e si comporti in modo completo inaspettato, innovativo e potenzialmente pericoloso è infondato.

terminatore
Crediti: Insomnia Cured Here / Flickr

Nessuna prova di pensiero autonomo o vera intelligenza nell’intelligenza artificiale

La conclusione degli autori dello studio si basa su una serie di esperimenti condotto su quattro diversi LLM. I ricercatori hanno sottoposto queste IA ai cosiddetti compiti emergenti, cioè quelli capaci di generare potenzialmente comportamenti imprevisti o devianti. Fortunatamente, i risultati non hanno dato nessuna prova dello sviluppo di idee devianti o qualsiasi capacità di agire al di fuori della programmazione iniziale.

READ  quali effetti cognitivi e sociali?

Secondo gli scienziati, l’obiettivo di questa ricerca era decostruire un mito. Va detto che i LLM possono mantenere conversazioni molto coerentiportando alcune persone, compresi i ricercatori, a speculare su tali capacità emergenti. Ad esempio, alcune IA possono elaborare situazioni sociali senza essere state addestrate a farlo. Tuttavia, gli autori dello studio ritengono che sia proprio così risultato della combinazione di tre fattorivale a dire la capacità dei LLM di seguire le istruzioni, la padronanza delle lingue e la capacità di memorizzare.

Resta il fatto che non esiste alcuna prova di pensiero autonomo o di vera intelligenza. Ciò dimostra quindi che il termine “intelligenza artificiale” può essere considerato un abuso del linguaggioperché oggi non esiste una vera e propria IA capace di formulare scelte o opinioni e di apprendere da sola. Per il momento si tratta semplicemente di elaborare e analizzare i dati seguendo regole prestabilite dall’uomo.

[ad_2]

Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *