จำกัดคำถามของ Bing ChatGPT ของ Microsoft กำลังสร้างปัญหามากกว่าคำตอบ

ภาพที่ 3.jpg

แชทบอท AI ของ Bing ยังไม่เปิดเผยต่อสาธารณชน แต่มีผู้ใช้บางรายที่ได้รับการอนุญาตให้เข้าใช้ล่วงหน้าและพวกเขาไม่อายที่จะแบ่งปันประสบการณ์ของพวกเขา

หลายคนในเหล่าผู้ใช้เหล่านี้ได้กลายเป็นภารกิจของตนเองที่จะทดสอบความสามารถของแชทบอทและเปิดเผยข้อบกพร่องของมัน

จากการเปิดเผยชื่อสำหรับการเรียกภายในของนักพัฒนา ไปจนถึงการประกาศความรักของบอทแชทกับนักเขียนของสำนักข่าว New York Times และขอให้เขาแยกตัวจากภรรยาของเขา รวมถึงอธิบายความปรารถนาที่ต้องการมีชีวิตก็เป็นเหตุผลที่ชัดเจนว่าบอทแชทพฤติกรรมผิดปกติ เพื่อนักพัฒนา Microsoft จึงตัดสินใจเปลี่ยนสภาพของบอทนี้ ตั้งแต่วันศุกร์ที่แล้ว บอทนี้จะมีจำกัดคำถามต่อเซสชั่นละ 5 คำถามและจำกัดการแชท 50 รอบต่อวัน

ยังมีอีก: วิธีการข้ามรายชื่อรอเข้าใช้ Bing รุ่นใหม่และเข้าใช้ได้ก่อน

"การสนทนาที่ยาวนานมากๆ อาจทำให้โมเดลแชทต้นฉบับใน Bing รุนแรง," ว่า Microsoft ในโพสต์บล็อกของตนเอง "ข้อมูลของเราแสดงว่าส่วนใหญ่ของคุณพบคำตอบที่คุณกำลังมองหาภายใน 5 คำตอบ"

วิธีนี้ไม่ได้แก้ไขปัญหาพื้นฐานเกี่ยวกับวิธีที่แชทบอทสร้างคำตอบหรือโมเดลที่ฝึก

แทนที่นั้น มันทำให้การสนทนากับแชทบอทเป็นไปได้อย่างยากมาก

นอกจากนี้: แชทบอท AI ของ Bing แก้ไขปัญหาใหญ่ของฉันกับ ChatGPT ได้สำเร็จ

เป็นตัวอย่างของโปรมต์ฉันลองให้แชทบอทช่วยฉันเขียนอีเมล แต่เมื่อฉันได้ทำการเปลี่ยนแปลงทั้งหมดที่ฉันต้องการแล้ว ฉันไม่สามารถเข้าถึงอีเมลได้ – แชทบอทของ Bing ได้ตัดการเชื่อมต่อของฉันออก

ภาพ4.jpg

สามารถจินตนาการได้ว่าผู้ที่พยายามปรับปรุงโค้ดหรือแต่งเรื่องที่สมบูรณ์ที่สุดอาจต้องการมากกว่าห้าข้อคำสั่งเพื่อให้ได้ผลลัพธ์ที่ต้องการ โดยการตัดสินค้าหากเร็วเกินไป เชทบอทก็จะไม่จำเป็นต่อการใช้กับส่วนใหญ่ของโปรโมทที่เกี่ยวข้องกับเทคโนโลยี (เช่นการร่างโค้ดหรือข้อความในรูปแบบที่เฉพาะเจาะจง) ซึ่งเป็นจุดเด่นของ ChatGPT

นอกจากนี้: ฉันกำลังใช้ ChatGPT เพื่อช่วยฉันแก้ไขรหัสเร็วขึ้น แต่มีค่าใช้จ่ายอย่างไร?

ข้อ จำกัด ใหม่ ๆ ยังลดลง จำนวนทั้งหมด ของความสามารถในการสนทนาคุยกับแชทบอทให้เหลือเพียงแค่มนุษย์สมจริงเท่านั้น โดยเริ่มการสนทนาโดยฉันขอเพียงกาวว่า "สวัสดี! คุณรู้สึกอย่างไรในวันนี้?" จนกว่าฉันจะได้รับการตอบกลับที่สั้นและกระชับว่า "ขอโทษนะ แต่ฉันชอบที่จะไม่ต้องทำการสนทนาต่อไปนี้ ยังเรียนรู้อยู่ จึงขอให้คุณเข้าใจและอดทนสักหน่อย 🙏"

รูปภาพ2.jpg

การตอบกลับนี้สร้างความแตกต่างชัดเจนจากการตอบกลับของ ChatGPT ซึ่งรับรู้ว่าตนไม่สามารถรับรู้ความรู้สึกได้ แต่ก็ยังตอบคำถามของคุณอย่างเต็มใจและขอถามว่าจะช่วยเหลือคุณอย่างไรต่อไป

ภาพที่ 1.jpg

โดยพยายามลดความขัดแย้ง ไมโครซอฟท์ลบคุณสมบัติที่ทำให้เราเชื่อถือได้และให้ความแตกต่าง เพื่อประชาสัมพันธ์ พวกเขาทำให้เรามีแค่เวอร์ชันทดลอง แม้จะกระจัดกระจายเล็กน้อยแต่เวอร์ชันเดิมมีประโยชน์และดูน่าตื่นเต้นกว่าเวอร์ชันปัจจุบันของ Bing ซึ่งเงียบลงมากขึ้น

บทความที่เกี่ยวข้อง

ดูเพิ่มเติม >>
  • Chat GPT มีการกลับกลอกเนื้อหาหรือไม่?

    Chat GPT มีการลอกเลียนแบบจากสิ่งอื่นหรือไม่? ดูข้อมูลเพิ่มเติมเกี่ยวกับปัญหาการลอกเลียนแบบที่อาจเกิดขึ้นจาก Chat GPT และเครื่องมือตรวจสอบความเหมือนกันที่ดีที่สุดสำหรับเนื้อหาที่สร้างขึ้นโดยใช้ AI

  • 11 ข้อเสียของเนื้อหา ChatGPT

    นักวิจัยค้นพบข้อบกพร่องแปลกประหลาดในเนื้อหาของ ChatGPT นี่คือวิธีการจับได้

  • ขีดจำกัดคำ ChatGPT

    ChatGPT มีวงจำกัดคำหรือไม่? มีผู้คิดว่าเป็นเช่นนั้น แต่อีกฝั่งก็ไม่แน่ใจ สิ่งหนึ่งที่เรารู้ก็คือมีวิธีง่ายๆ เพื่อหลีกเลี่ยงปัญหา