[ad_1]
Un nuovo studio innovativo suggerisce che dare ai sistemi di intelligenza artificiale (AI) un “monologo interiore” li rende significativamente più efficienti nel loro ragionamento. Questo metodo, chiamato “Quiet-STaR”, addestra le IA a pensare prima di rispondere agli inviti, simulando il processo di pensiero umano prima di parlare.
Come funzionano i chatbot?
Chatbot AI tradizionali, come ChatGPT e Gemelli, sono costruiti da reti neurali, insiemi di algoritmi di apprendimento automatico progettati per imitare la struttura e i modelli di apprendimento del cervello umano. Questi modelli linguistici vengono addestrati su set di dati di testo di grandi dimensioni per comprendere e generare linguaggio naturale.
Quando un utente interagisce con un chatbot AI tradizionale, il processo si svolge solitamente in più fasi.
Innanzitutto, l'utente invia un messaggio o una richiesta al chatbot, solitamente in forma di testo. Il chatbot utilizza quindi tecniche di elaborazione del linguaggio naturale per comprendere il messaggio dell'utente analizzando il testo per estrarre il significato e l'intento dietro le parole.
Sulla base della sua analisi, il chatbot genera quindi una risposta utilizzando il suo modello linguistico pre-addestrato. Questa risposta si basa spesso su modelli statistici e associazioni di parole apprese durante la formazione.
La differenza con Quiet-STaR
Il modello in questione qui, chiamato Quiet-STAR, funziona diversamente. A differenza dei chatbot tradizionali, adotta un approccio più ponderato nel processo di generazione della risposta. Nello specifico, invece di rispondere immediatamente a una query dopo averla analizzata, chiede ai sistemi di intelligenza artificiale di farlo generare diverse giustificazioni interne prima di formulare una risposta.
Questo approccio consente quindi all'IA di farlo simulare un “monologo interiore”dove pensa a diversi possibili scenari e valuta le motivazioni per ogni potenziale risposta. Selezionando la migliore giustificazione, l’intelligenza artificiale può quindi fornire una risposta più ponderata e contestualmente appropriata.
L’originalità di questo approccio risiede nella sua capacità di imparare dagli errori rifiutando giustificazioni rivelatesi errate. Pertanto, gli agenti IA possono farlo anticipare le conversazioni future e migliorare continuamente.

Un’intelligenza artificiale più efficiente
Come parte di a studi recenti, i ricercatori hanno applicato l'algoritmo Quiet-STaR al modello linguistico Mistral 7B, un grande modello linguistico open source. I risultati hanno mostrato un netto miglioramento delle prestazioni in termini di ragionamento, con un punteggio del 47,2% in un test di ragionamento rispetto al 36,3% prima della formazione.
Tuttavia, nonostante questo miglioramento, il modello non ha superato un test di matematica scolastica ottenendo un punteggio del 10,9%. Ciò rappresenta ancora quasi il doppio del punteggio iniziale del 5,9% ottenuto con la versione non addestrata.
I modelli linguistici come ChatGPT e Gemini, costruiti da reti neurali, sono spesso criticati per la mancanza di ragionamento e contestualizzazione basati sul buon senso. I ricercatori sperano che tecniche come Quiet-STaR possano ridurre questo divario consentendo lo sviluppo delle IA capacità di ragionamento più vicine a quelle umane.
L'algoritmo di ragionamento ad autoapprendimento (STaR), su cui si basa Quiet-STaR, ha il vantaggio di esserlo applicabile silenziosamente in background e su diversi tipi di modelli di intelligenza artificiale, indipendentemente dai dati di addestramento originali. Questa versatilità apre nuove prospettive per migliorare le capacità di ragionamento dell’intelligenza artificiale.
[ad_2]
Source link
- Hypnotiseur comique, recyclage du changement et généalogie : sept choses à savoir à North Smithfield cette semaine - novembre 4, 2024
- Mount Aloysius dévoile un nouveau laboratoire sur les scènes de crime et vante un certificat de généalogie d’enquête - novembre 2, 2024
- Un orphelin de la Shoah retrouve une famille - novembre 1, 2024