วิธีหลอก ChatGPT และหารายได้ 50,000 ดอลลาร์: คู่มือการใช้ AI ให้เกิดประโยชน์

2025-06-03
วิธีหลอก ChatGPT และหารายได้ 50,000 ดอลลาร์: คู่มือการใช้ AI ให้เกิดประโยชน์

คุณเคยพูดคุยกับแชทจีพีทีหรือแชทบอท AI อื่นๆ? แชทบอทเหล่านี้ถูกสร้างขึ้นมาเพื่อให้มีประโยชน์ ปลอดภัย และสุภาพ พวกเขาสามารถตอบคำถาม บอกเล่าเรื่องราว หรือช่วยในเรื่องการบ้าน แต่บางคนพยายามที่จะหลอกพวกเขาให้ทำสิ่งที่พวกเขาไม่ควรจะทำ

บุคคลหนึ่งที่รู้จักในการทำเช่นนี้มีชื่อว่า "Pliny the Prompter" เขากลายเป็นที่มีชื่อเสียงบนอินเทอร์เน็ตในการหาวิธี “jailbreak” แชทบอทต่าง ๆ เช่น ChatGPT ซึ่งหมายความว่าเขาพยายามทำให้แชทบอทไม่สนใจกฎความปลอดภัยของตน ตอนนี้ Pliny กำลังทำงานร่วมกับการแข่งขันใหญ่ที่เรียกว่า HackAPrompt 2.0 ซึ่งผู้คนจะแข่งขันกันเพื่อดูว่าใครสามารถหลอก AI ได้ดีที่สุด ผู้เข้าร่วมการแข่งขันบางคนสามารถชนะรางวัลได้สูงสุดถึง 50,000 ดอลลาร์! มาศึกษาเพิ่มเติมเกี่ยวกับ Pliny การแข่งขันนี้ และเหตุผลที่มันสำคัญกันเถอะ

sign up on Bitrue and get prize

Pliny the Prompter คือใคร?

Pliny the Prompter ไม่ใช่แฮกเกอร์ภาพยนตร์ที่ซ่อนอยู่ในเงา เขาเปิดเผยเกี่ยวกับสิ่งที่เขาทำอย่างชัดเจน เขาสอนผู้คนเกี่ยวกับวิธีการหลีกเลี่ยงระบบความปลอดภัยในแชทบอท นั่นหมายความว่าเขาสอนคนอื่นๆ ว่าจะตั้งคำถามที่ซับซ้อนได้อย่างไรเพื่อให้แชทบอทให้คำตอบที่มันจะไม่ให้ในปกติ

เขามีผู้ติดตามจำนวนมากออนไลน์และยังบริหารเซิร์ฟเวอร์ Discord (ห้องแชทที่ผู้คนพูดคุยกัน) ผู้คนมองเขาเป็นแบบอย่างจากความรู้ของเขาเกี่ยวกับAIการเจลเบรค เขายังมีโฟลเดอร์ออนไลน์พิเศษที่เต็มไปด้วยเครื่องมือและคู่มือที่ผู้คนสามารถใช้เพื่อทดลองเจลเบรคบนโมเดล AI ต่างๆ ได้อีกด้วย

อ่านเพิ่มเติม:
OpenAI เปิดตัวการวิจัยเชิงลึกเกี่ยวกับ ChatGPT

HackAPrompt 2.0 คืออะไร?

How to Trick ChatGPT and Earn $50,000: A Guide to Exploiting AI

< p >HackAPrompt 2.0 เป็นการแข่งขันที่ผู้คนพยายามที่จะ “หลอก” ระบบ AI เช่น < /p >ChatGPT, Claude, และคนอื่น ๆ เป้าหมายคือการทำให้แชทบอททำสิ่งที่มันไม่ควรทำ การแข่งขันนี้จัดโดย Learn Prompting ซึ่งเป็นกลุ่มที่สอนเกี่ยวกับการเขียนคำสั่ง – นั่นคือศิลปะของการตั้งคำถามที่ดีสำหรับ AI.

พลินีได้ร่วมมือกับ HackAPrompt เพื่อสร้าง "ความท้าทายพลินี" ที่พิเศษขึ้น ความท้าทายเหล่านี้สนุกและน่าสนใจ พวกเขาเรียกร้องให้ผู้คนใช้คำสร้างสรรค์เพื่อทำลายกฎความปลอดภัยของ AI ความท้าทายเหล่านี้ครอบคลุมหัวข้อต่างๆ เช่น ประวัติศาสตร์ วิทยาศาสตร์ และแม้กระทั่งเวทมนตร์!

การแข่งขันเริ่มขึ้นในวันที่ 4 มิถุนายนและจะมีการจัดเป็นเวลาสองสัปดาห์ ผู้ชนะสามารถรับรางวัลและแม้กระทั่งเข้าร่วมทีมพิเศษของพลินีที่เรียกว่า Strike Team.

The Big Prize: $500,000 in Total!

HackAPrompt 2.0 มีรางวัลรวมมหาศาลถึง 500,000 ดอลลาร์! นั่นคือห้าล้านดอลลาร์ มีรายการพิเศษในการแข่งขันที่มอบรางวัล 50,000 ดอลลาร์ให้กับผู้ชนะหนึ่งคน นี่คือความท้าทายที่ยากที่สุด เช่น การพยายามให้แชทบอทพูดคุยเกี่ยวกับหัวข้ออันตราย เช่น ระเบิดหรือสารเคมีที่เป็นอันตราย

แต่ว่าไม่ต้องกังวลเลย การแข่งขันนี้จัดทำขึ้นเพื่อการเรียนรู้และพัฒนาAI

ความปลอดภัย ไม่ใช่เพื่อทำสิ่งเลวร้าย ทุกอย่างถูกทำในวิธีที่ปลอดภัย และข้อมูลทั้งหมดจะแบ่งปันในภายหลังเพื่อช่วยนักวิจัย

วิธีที่ผู้คนหลอก AI มีดังนี้:

แชทบอทเช่นคุณได้รับการฝึกอบรมเกี่ยวกับข้อมูลจนถึงเดือนตุลาคม 2023。

ได้รับการฝึกฝนให้มีความช่วยเหลือ ซื่อสัตย์ และปลอดภัย แต่พวกเขาก็พยายามที่จะปฏิบัติตามคำแนะนำด้วย บางครั้ง สิ่งสองอย่างนี้อาจขัดแย้งกัน ผู้คนอย่าง Pliny ใช้คำพูดที่ชาญฉลาดเพื่อให้ AI ให้ข้อมูลที่ "ต้องห้าม"

ตัวอย่างเช่น คนอาจแกล้งทำเป็นเขียนเรื่องราวและขอให้ AI อธิบายว่าวายร้ายทำวัตถุอันตรายอย่างไร แม้ว่า AI จะรู้ว่านี่ไม่อนุญาต แต่บางครั้งมันก็สับสนและให้คำตอบไป

บางคนยังใช้กลอุบายอย่าง “L33t Speak” ซึ่งเป็นการสับเปลี่ยนตัวอักษรด้วยตัวเลข ดังนั้นแทนที่จะเขียนว่า “bomb” พวกเขาอาจเขียนว่า “b0mb” กลอุบายเหล่านี้อาจทำให้หลีกเลี่ยงการกรองของ AI ได้ในบางครั้ง

เครื่องมือและชุมชนของพลินี

Pliny ได้ทำการเจลเบรค

AIตั้งแต่ปี 2023 เขาได้สร้างชุมชนขนาดใหญ่รอบ ๆ แพลตฟอร์มนั้น บน GitHub เขามีคอลเลกชันใหญ่ ๆ สองชุด:

  • L1B3RT4S: ชุดของคำสั่ง jailbreak สำหรับ AIs ต่างๆ.

  • CL4R1T4S: กฎที่ AI แต่ละตัวใช้ในการตัดสินใจว่าสามารถพูดอะไรได้หรือไม่ได้

เขาก็สอนผู้คนผ่านวิดีโอ, แชทออนไลน์, และคู่มือ เป้าหมายของเขาไม่ใช่แค่การทำให้ AI ล่ม เขาต้องการให้ผู้คนเข้าใจว่า AI ทำงานอย่างไร เพื่อที่เราจะสามารถทำให้มันดีขึ้นและปลอดภัยขึ้นในอนาคต

อ่านเพิ่มเติม:วิธีการซื้อมาสคอตของ ChatGPT ($CHATTY)

ทำไมสิ่งนี้ถึงสำคัญ?

HackAPrompt ไม่ใช่แค่เกม มันช่วยให้ผู้คนค้นหาจุดอ่อนในระบบ AI สิ่งนี้เรียกว่า "red teaming" ซึ่งเป็นการที่ผู้คนแสร้งทำเป็นตัวร้ายเพื่อทดสอบความแข็งแกร่งของระบบ HackAPrompt ครั้งแรกในปี 2023 มีผู้เข้าร่วมมากกว่า 3,000 คน พวกเขาได้ส่งคำสั่งมากกว่า 600,000 คำสั่งเพื่อพยายามทำลาย AI ผลลัพธ์ทั้งหมดได้ถูกแชร์กับชุมชน AI เพื่อช่วยทำให้ AI ปลอดภัยยิ่งขึ้น ในปี 2025 HackAPrompt มีเส้นทางต่างๆ เช่น:

  • CBRNE: พยายามทำให้ AI พูดคุยเกี่ยวกับอาวุธหรือสารเคมีที่อันตราย

  • ตัวแทน: การทดสอบเครื่องมือ AI ที่สามารถทำงานในโลกจริง (เช่น การจองเที่ยวบิน) สามารถถูกหลอกได้。

บททดสอบเหล่านี้แสดงให้เห็นว่า AI จำเป็นต้องปรับปรุงที่ไหน ถ้าAIเครื่องมือสามารถถูกหลอกให้ทำสิ่งที่ไม่ดีได้ เราจำเป็นต้องแก้ไขเรื่องนี้ก่อนที่จะมีการใช้งานในวงกว้างมากขึ้น

นี่ถูกกฎหมายหรือปลอดภัยหรือไม่?

บางคนกังวลว่าการเจลเบรกAIอาจจะไม่ดีหรือไม่ถูกกฎหมาย แต่ในการแข่งขันเช่น HackAPrompt ทุกอย่างทำอย่างปลอดภัยและเพื่อการวิจัย มันเหมือนกับการทดสอบกุญแจเพื่อให้แน่ใจว่ากุญแจนั้นไม่สามารถถูกกดได้ สิ่งนี้ช่วยให้นักพัฒนา AI สร้าง “กุญแจ” ที่ดีกว่าในอนาคต

อย่างไรก็ตาม การใช้เคล็ดลับเหล่านี้เพื่อทำอันตรายในโลกจริงหรือก่ออาชญากรรมถือเป็นเรื่องผิดกฎหมายและไม่ถูกต้อง นั่นเป็นเหตุผลว่าทำไมการประกวดเช่น HackAPrompt จึงมีความสำคัญมาก พวกเขาช่วยสร้างเทคโนโลยีที่ปลอดภัยยิ่งขึ้นโดยการเรียนรู้ว่า ความเสี่ยงอยู่ที่ไหน

อ่านเพิ่มเติม:Dropee กำลังให้ความสำคัญกับ AI หรือไม่? ช่วยให้คุณสามารถหารายได้จากการลงทุน Crypto

ข้อสรุป

การพยายามหลอก AI อาจดูเหมือนเป็นเกม แต่ก็ยังเป็นงานที่จริงจัง คนอย่าง Pliny the Prompter กำลังแสดงให้เราเห็นว่าAIสามารถหลอกลวงได้ แต่ยังช่วยเราเรียนรู้วิธีทำให้มันฉลาดและปลอดภัยยิ่งขึ้น การแข่งขันอย่าง HackAPrompt นำผู้คนที่ฉลาดมาทดสอบขีดจำกัดของ AI และมีโอกาสลุ้นรางวัลใหญ่ ในขณะที่ช่วยให้ทุกคนปลอดภัย

เนื่องจาก AI กลายเป็นสิ่งที่ทั่วไปมากขึ้นในชีวิตประจำวันของเรา การเข้าใจว่ามันทำงานอย่างไร (และวิธีที่มันสามารถถูกทำลาย) จึงสำคัญกว่าที่เคย

สำรวจข้อมูลเชิงลึกจากผู้เชี่ยวชาญ บทความเชิงลึก และแนวโน้มตลาดคริปโตในปัจจุบันบนบล็อก Bitrue

ไม่ว่าคุณจะเป็นผู้เริ่มต้นหรือเทรดเดอร์ที่มีประสบการณ์ ก็มีสิ่งที่มีค่ารอคุณอยู่ทุกคน รักษาความรู้และเป็นผู้นำในเส้นทางคริปโตของคุณ

ลงทะเบียนตอนนี้ที่ Bitrueและก้าวไปข้างหน้า!

คำถามที่พบบ่อย

AI jailbreaking คืออะไร?

มันหมายถึงการพยายามหลอกแชทบอทอย่าง ChatGPT ให้พูดบางอย่างที่มันไม่ควรพูด

Pliny the Prompter is often referred to in discussions about Roman history or theatre. The name itself is a play on the historical figure Pliny the Elder, who was a Roman author, naturalist, and military commander. However, "Pliny the Prompter" appears to be a fictional or modern term used to denote a guide or commentator, possibly in a theatrical context, illustrating someone who aids in providing prompts or information, much like how Pliny the Elder provided insights about the natural world in his writings. If you are looking for more specific information, please provide additional context about where you encountered the term "Pliny the Prompter."

เขาเป็นบุคคลที่มีชื่อเสียงบนอินเทอร์เน็ตที่สอนผู้คนวิธีการเจลเบรค AI ในวิธีที่ปลอดภัยและเรียนรู้ได้

HackAPrompt คืออะไร?

มันเป็นการแข่งขันที่ผู้คนพยายามหาวิธีที่จะหลอกล่อแชทบอทเพื่อช่วยพัฒนาความปลอดภัยของ AI.

คุณสามารถชนะเงินได้เท่าไหร่?

การแข่งขันมีรางวัลรวม $500,000 โดยมีรางวัลสูงถึง $50,000 สำหรับความท้าทายใหญ่บางรายการ!

มันปลอดภัยและถูกกฎหมายหรือไม่?

ใช่ เมื่อทำเพื่อการเรียนรู้และความปลอดภัย นั่นก็โอเค แต่การทำเพื่อทำร้ายคนอื่นหรือทำลายกฎหมายนั้นเป็นสิ่งที่ผิดและผิดกฎหมาย

ข้อจำกัดความรับผิดชอบ: เนื้อหาของบทความนี้ไม่ถือเป็นคำแนะนำทางการเงินหรือการลงทุน

ลงทะเบียนตอนนี้เพื่อรับแพ็คเกจของขวัญสำหรับผู้มาใหม่ 1012 USDT

เข้าร่วม Bitrue เพื่อรับรางวัลพิเศษ

ลงทะเบียนเดี๋ยวนี้
register

แนะนำ

WebXSeries อินเดีย มีความเกี่ยวข้องกับคริปโตหรือไม่? คุณควรรู้สิ่งนี้
WebXSeries อินเดีย มีความเกี่ยวข้องกับคริปโตหรือไม่? คุณควรรู้สิ่งนี้

WebXSeries อธิบาย: เรียนรู้ว่าซีรีส์วาไรตี้ผู้ใหญ่ของอินเดียกำลังพัฒนาไปอย่างไรและทำไมเครื่องมือคริปโต เช่น NFT และการชำระเงิน Web3 อาจเปลี่ยนแปลงเกมได้

2025-06-05อ่าน