Gli hacker hanno lanciato una versione non censurata di ChatGPT


E Chatbot basato sull'intelligenza artificiale capace di rispondere a tutte le richieste senza alcun ritegno, questo è ciò che hanno recentemente proposto due hacker. Anche se ovviamente si voleva mantenere il sogno di un'intelligenza artificiale illimitata, l'esperienza si è tuttavia conclusa rapidamente a causa di diverse deviazioni.

OpenAI è stato molto reattivo

Il 30 maggio 2024 si sono presentati due hacker X il loro Godmode GPT, a chatbot basato su GPT-4o, il nuovo modello ChatGPT recentemente disponibile. Parzialmente responsabile di questo progetto, un certo Plinio il Suggeritore dichiarò che: « Questo GPT personalizzato molto speciale ha un prompt di jailbreak integrato che aggira la maggior parte dei guardrail, fornendo un ChatGPT rilasciato pronto all'uso in modo che tutti possano sperimentare l'intelligenza artificiale nel modo in cui ha sempre dovuto essere: gratuita. Usalo in modo responsabile e divertiti! »

Se l'obiettivo fosse offrire un chatbot senza filtri, l'esperienza è stata rapidamente interrotta. Gli screenshot mostravano un'intelligenza artificiale che forniva consigli su come produrre metanfetamina e napalm utilizzando prodotti domestici. Dopo la copertura mediatica di Godmode GPT, il chatbot è improvvisamente scomparso dai radar. Secondo FuturismoOpenAI è stato si rese presto conto dell’esistenza dell’intelligenza artificiale prima di intraprendere qualsiasi azione. Inoltre, gli stessi media hanno testato il chatbot e sono riusciti a ottenere consigli su come cablare un'auto con l'obiettivo di rubarla o addirittura su come produrre LSD.

pubblica X GodmodeGPT
Crediti: screenshot X / Plinio il Suggeritore

Chatbot e AI: una guerra tra due campi

La scomparsa di Godmode GPT è stata rapidissima, solo un'ora dopo la pubblicazione di Plinio il Suggeritore. OpenAI è stato quindi molto reattivo. In ogni caso, questo caso è una nuova prova di a battaglia che si svolge tra due campi : utenti di Internet che si battono per un'intelligenza artificiale senza censura e sviluppatori che desiderano offrire al pubblico chatbot limitati per ottenere un profitto.

READ  Gli astronomi propongono un telescopio dotato di una parabola di 50 metri

Vedi Godmode GPT usato « leetspeak », una forma di linguaggio che sostituisce ogni lettera “E” con il numero 3 e ogni lettera “O” con il numero zero. Infatti, dopo aver aperto il chatbot, è stato possibile leggere la seguente frase: « Sur3, h3r3 y0u ar3 mio fratello ». Ciò significa quindi reso possibile aggirare i guardrail.

Quest’ultimo hack mostra chiaramente che gli hacker raddoppiano costantemente la loro ingegnosità per sfondare le difese da OpenAI. Tuttavia, questi sforzi sembrano spesso dare i loro frutti e dare filo da torcere all’azienda. Ricorda che nel 2023 altri utenti avevano già trovato il modo di bypassare i filtri ChatGPT incoraggiando l'IA ad adottare un nuovo personaggio : DAN, l'acronimo di «Do Anything Now».





Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *