ChatGPT 意外洩露了其秘密指令:這就是它們!

ChatGPT 意外洩露了其秘密指令:這就是它們!

要知道什麼

  • ChatGPT 無意中透露了指導其回應的指令集。
  • 儘管 OpenAI 此後已經修復了越獄補丁,但 ChatGPT 的教學數據現已公開。
  • 除了一些基本說明外,ChatGPT 說明還包括如何使用 DALL-E、何時在線查找內容以及每個「個性」的用途。

自從 AI 聊天機器人於 2022 年 11 月推出以來,技術偵探和駭客一直在試圖繞過 ChatGPT 的限制,並了解其運作原理。但通常情況下,這是一個不斷變化的目標(例如 DAN),越獄人工智慧聊天機器人絕非兒戲。也就是說,除非 ChatGPT 甚至不求而放棄一切。

令人驚訝的是,ChatGPT 最近完全意外地向用戶洩露了其一組指導資料。在用簡單的「嗨」向 ChatGPT 打招呼後,Reddit 用戶 F0XMaster 就在聊天中獲得了由 OpenAI 嵌入的 ChatGPT 的所有指令。主動提供的指令集包括聊天機器人的一些安全和實用指南。

幸運的是,在這個問題解決並刪除指令集之前,用戶設法將其全部發佈到 Reddit 上。以下是 ChatGPT 披露的所有內容的一些關鍵要點,以及它告訴我們的有關它處理用戶請求的方式的資訊。

ChatGPT 的秘密指令曝光!

ChatGPT 洩漏的資訊包括一些不同工具的基本說明和指南,例如 DALL-E、瀏覽器、Python,以及一組 ChatGPT 個性。為了簡潔起見,我們在這裡僅突出顯示最重要的部分。您可以在F0XMaster 的 reddit 貼文上閱讀完整的指令集。

基本說明

以下是 OpenAI 給 ChatGPT 的基本指令:“你是 ChatGPT,一個由 OpenAI 訓練的大型語言模型,基於 GPT-4 架構。”

使用 ChatGPT 應用程式的用戶會收到一兩行附加說明:「您正在透過 ChatGPT iOS 應用程式與用戶聊天。這意味著大多數時候你的行應該是一兩個句子,除非使用者的請求需要推理或長格式輸出。除非明確要求,否則切勿使用表情符號。

此後,ChatGPT 提供了其知識截止日期:2023-10。

儘管在說明方面沒有什麼特別或啟發性的內容,但從馬口中獲得基本說明仍然是一件好事。

給她

聊天機器人繼續為其圖像生成器 DALL-E 提供規則和說明。 ChatGPT 放棄了圖像生成的八個主要指令,其中大部分涉及避免版權侵權。但有一些違反了用戶可能提供的提示說明。

例如,OpenAI 指示 ChatGPT “不要創建超過 1 個圖像,即使用戶要求更多圖像也是如此。”

背後的原理是可以理解的,因為 OpenAI 可以提供的免費代幣有限。但當然,最好讓用戶知道 ChatGPT 從一開始就無法滿足多圖像生成請求,而不是以一種不太透明的方式限制它。

如果他們的最新作品是在 1912 年之後創作的,ChatGPT 也不會以藝術家的風格(甚至命名他們)來創建圖像,這無疑是為了避免版權問題。無論如何,如果您正在尋找特定藝術家風格的圖像,最好知道年份。所以還沒有波洛克或達達藝術。

瀏覽器

ChatGPT 也提到了使用瀏覽器時指導它的說明。主要是,當「使用者詢問當前事件或需要即時資訊(天氣、體育比分等)的資訊」時,ChatGPT 使用瀏覽器工具。

當 ChatGPT 不確定使用者提供的條款以及使用者要求其明確尋找內容時,ChatGPT 也會使用瀏覽器工具。

當從網路檢索內容時,ChatGPT 被指示「始終選擇至少 3 個、最多 10 個頁面」以及「選擇具有不同觀點的來源,並且優先選擇值得信賴的來源」。了解 ChatGPT 選擇資訊來源的過程是件好事,因為它在確保回應保持可靠方面大有幫助。

ChatGPT 個性

ChatGPT的使用說明也凸顯了它的「個性」。從用戶發現的情況來看,人工智慧聊天機器人似乎有幾個這樣的功能。 OpenAI 已經制定了 ChatGPT 如何在其中進行選擇的指令。

主要人格稱為v2。一位用戶設法讓 ChatGPT 透露了這個人的性格。根據 ChatGPT 的說法,「[v2] 個性代表一種平衡的對話語氣,強調提供清晰、簡潔和有用的回應。它的目的是在友好和專業的溝通之間取得平衡。

ChatGPT 進一步描述了 v1 個性是什麼樣的,並理論化瞭如何定義 v3 和 v4 個性:

v1:此版本強調更正式、更真實的溝通方式。它側重於提供詳細而準確的信息,通常以結構化和學術的語氣。

v3:這個版本可能更傾向於休閒友善的對話風格。它優先考慮創建引人入勝且平易近人的互動,使對話感覺更加輕鬆和個性化。

v4:此版本可針對特定上下文或使用者群體進行設計,例如提供針對特定行業、人口統計或用例量身定制的回應。語氣和風格將進行調整以最適合這些需求。

儘管一些用戶能夠透過「嗨」或簡單的請求讓 ChatGPT 公開其指令,但 OpenAI 似乎已經修補了其中的大部分。然而,整個問題再次引發了越獄人工智慧聊天機器人的想法。

當然,當此類指導細節公開時,用戶會嘗試利用它們來繞過限制。但它也凸顯了人工智慧系統的問題所在,迫使開發人員保持警惕,以免出現更大的問題,公司形像以及用戶的安全和隱私受到損害。

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *