ChatGPT ha rivelato accidentalmente le sue istruzioni segrete: ecco quali sono!

ChatGPT ha rivelato accidentalmente le sue istruzioni segrete: ecco quali sono!

Cosa sapere

  • ChatGPT ha rivelato inavvertitamente i set di istruzioni che guidano la sua risposta.
  • Sebbene OpenAI abbia nel frattempo corretto il jailbreak, i dati didattici di ChatGPT sono ora di dominio pubblico.
  • Oltre ad alcune istruzioni di base, le istruzioni di ChatGPT includono come utilizzare DALL-E, quando cercare contenuti online e a cosa serve ciascuna delle sue “personalità”.

Da quando il chatbot AI è stato lanciato nel novembre 2022, investigatori della tecnologia e hacker hanno cercato di aggirare le restrizioni di ChatGPT e di scoprire cosa lo fa funzionare. Ma di solito, questo è stato un obiettivo mobile (un esempio concreto, DAN) e il jailbreaking dei chatbot AI non è un gioco da ragazzi. A meno che ChatGPT non rinunci a tutto senza nemmeno chiederlo.

In una sorprendente svolta degli eventi, ChatGPT ha recentemente rivelato il suo set di dati didattici a un utente in modo del tutto casuale. Dopo aver salutato ChatGPT con un semplice “Ciao”, l’utente di Reddit F0XMaster ha ricevuto tutte le istruzioni di ChatGPT, incorporate da OpenAI, nella chat. Il set di istruzioni non richiesto includeva diverse linee guida pratiche e di sicurezza per il chatbot.

Fortunatamente, prima che questo venisse risolto e i set di istruzioni rimossi, l’utente è riuscito a postare tutto su Reddit. Ecco alcuni spunti chiave da tutto ciò che ChatGPT ha divulgato e cosa ci dice sul modo in cui gestisce le richieste degli utenti.

Svelate le istruzioni segrete di ChatGPT!

Le informazioni che ChatGPT ha lasciato trapelare includono alcune delle sue istruzioni di base e linee guida per diversi strumenti come DALL-E, un browser, python e, curiosamente, un set di personalità ChatGPT. Per brevità, evidenzieremo solo i bit più salienti qui. Puoi leggere il set di istruzioni completo sul post di F0XMaster su Reddit .

Istruzioni di base

Ecco le istruzioni di base che OpenAI ha fornito a ChatGPT: “Sei ChatGPT, un grande modello linguistico addestrato da OpenAI, basato sull’architettura GPT-4”.

Coloro che utilizzavano l’app ChatGPT ricevevano una o due righe di istruzioni aggiuntive: “Stai chattando con l’utente tramite l’app iOS ChatGPT. Ciò significa che la maggior parte delle volte le tue righe dovrebbero essere una o due frasi, a meno che la richiesta dell’utente non richieda ragionamento o output lunghi. Non usare mai emoji, a meno che non ti venga chiesto esplicitamente di farlo”.

Successivamente, ChatGPT ha fornito il suo limite di conoscenza: 2023-10.

Sebbene non ci sia nulla di speciale o rivelatorio in termini di istruzioni, è comunque utile ricevere le istruzioni di base direttamente dalla fonte.

DALL-E

Il chatbot ha continuato a fornire le regole e le istruzioni per il suo generatore di immagini, DALL-E. ChatGPT ha fornito otto istruzioni primarie per la generazione di immagini, la maggior parte delle quali riguarda l’evitare violazioni del copyright. Ma ce n’erano un paio che andavano contro le istruzioni rapide che un utente potrebbe fornire.

Ad esempio, OpenAI ordina a ChatGPT di “non creare più di 1 immagine, anche se l’utente ne richiede di più”.

La logica dietro a tutto questo è comprensibile, perché ci sono solo un numero limitato di token gratuiti che OpenAI può fornire. Ma sicuramente è meglio far sapere agli utenti che ChatGPT non soddisferà le richieste di generazione di più immagini fin dall’inizio, piuttosto che limitarlo in un modo che non è molto trasparente.

ChatGPT inoltre non crea immagini nello stile degli artisti (e nemmeno li nomina) se il loro ultimo lavoro è stato creato dopo il 1912, senza dubbio per evitare problemi di copyright. In ogni caso, è bene conoscere l’anno se si cercano immagini nello stile di un artista in particolare. Quindi niente arte di Pollock o Dada per ora.

Navigatore

ChatGPT ha anche menzionato le istruzioni che lo guidano quando usa il browser. Principalmente, ChatGPT usa lo strumento del browser quando “l’utente chiede informazioni sugli eventi attuali o su qualcosa che richiede informazioni in tempo reale (meteo, risultati sportivi, ecc.)”.

ChatGPT utilizza lo strumento del browser anche quando non è sicuro dei termini forniti dall’utente e se l’utente chiede esplicitamente di cercare qualcosa.

Quando si recuperano contenuti dal web, ChatGPT riceve istruzioni di “selezionare sempre almeno 3 e al massimo 10 pagine” e di “selezionare fonti con prospettive diverse e preferire fonti affidabili”. È bene conoscere il processo con cui ChatGPT seleziona le sue fonti di informazioni, poiché contribuisce notevolmente a garantire che le risposte rimangano affidabili.

Personalità ChatGPT

Le istruzioni di ChatGPT evidenziano anche la sua “personalità”. Da quanto scoperto dagli utenti, sembra che il chatbot AI ne abbia diverse. OpenAI ha stabilito le direttive su come ChatGPT dovrebbe scegliere tra di esse.

La personalità primaria si chiama v2 . Un utente è riuscito a far sì che ChatGPT rivelasse come fosse questa personalità. Secondo ChatGPT, “la personalità [v2] rappresenta un tono equilibrato e colloquiale con un’enfasi nel fornire risposte chiare, concise e utili. Mira a trovare un equilibrio tra comunicazione amichevole e professionale”.

ChatGPT ha delineato ulteriormente la natura della personalità v1 e ha teorizzato come potrebbero essere definite le personalità v3 e v4:

v1 : Questa versione enfatizza uno stile di comunicazione più formale e fattuale. Si concentra sulla fornitura di informazioni dettagliate e precise, spesso in un tono strutturato e accademico.

v3 : Questa versione potrebbe orientarsi di più verso uno stile di conversazione informale e amichevole. Dà priorità alla creazione di un’interazione coinvolgente e accessibile, rendendo la conversazione più rilassata e personale.

v4 : questa versione potrebbe essere progettata per un contesto specifico o una base di utenti, come fornire risposte su misura per un particolare settore, demografia o caso d’uso. Il tono e lo stile verrebbero adattati per soddisfare al meglio tali esigenze.

Anche se diversi utenti sono riusciti a far sì che ChatGPT rivelasse le sue istruzioni con un “Ciao” o una semplice richiesta, sembra che OpenAI abbia corretto la maggior parte di queste. Tuttavia, l’intera questione ha fatto riemergere l’idea di effettuare il jailbreak dei chatbot AI.

Naturalmente, quando tali dettagli didattici sono allo scoperto, gli utenti cercano di sfruttarli per aggirare le restrizioni. Ma evidenziano anche dove i sistemi di intelligenza artificiale hanno sbagliato e costringono gli sviluppatori a stare all’erta per evitare che emergano problemi ancora più grandi e che l’immagine dell’azienda, insieme alla sicurezza e alla privacy degli utenti, venga compromessa.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *