ไฮไลท์
- ทำไมเนื้อหา ChatGPT คุณภาพต่ำได้ผ่านการตรวจสอบโดยมนุษย์
- ChatGPT เป็นครบถ้วนแม้ว่าจะต้องสรุปสั้น ๆ
- อาจารย์ประกาศว่ามีข้อบกพร่องที่ทำให้เอสเซย์ที่สร้างด้วย ChatGPT ไม่สมบูรณ์
- ChatGPT ล้มเหลวในการตรวจพบแอนดรอยด์ที่คิดว่าเป็น Voight-Kampff และเหตุผลที่น่าแปลกใจว่าทำไมเรื่องนี้สำคัญ
ChatGPT สร้างเนื้อหา ที่อธิบายอย่างละเอียดและเป็นไปได้ในการเป็นจริงได้
แต่นักวิจัย ศิลปิน และอาจารย์สอนวิชาต่างๆ เตือนให้เราเห็นถึงข้อจำกัดที่จะเกิดขึ้น ซึ่งจะทำลายคุณภาพของเนื้อหาได้
ในบทความนี้ เราจะมองไปยังข้อเสีย 11 ข้อของเนื้อหา ChatGPT มาดูกันเลย
1. การใช้วลีทำให้ตรวจพบว่าเป็นอย่างที่ไม่ใช่มนุษย์
นักวิจัยที่ศึกษาวิธีการตรวจจับเนื้อหาที่สร้างด้วยเครื่องได้ค้นพบรูปแบบที่ทำให้เสียงดูเหมือนไม่เป็นธรรมชาติ
หนึ่งในพฤติกรรมประหลาดของ AI คือการแปลงานกับสำนวนไม่ได้
สำนวนคือวลีหรือสำนวนพูดที่มีความหมายแบบสมมาตรแนบอยู่ เช่น “ทุกเมฆต้องมีแสงสว่าง”
ขาดสำนวนในเนื้อหาบางส่วนอาจเป็นสัญญาณว่าเนื้อหาถูกสร้างขึ้นโดยเครื่อง - และสิ่งนี้อาจเป็นส่วนหนึ่งของอัลกอริทึมการตรวจจับ
นี่คือสิ่งที่วารสารวิจัยปี 2022 เรื่องความคลาดเคลื่อนในเนื้อหาที่สร้างขึ้นโดยเครื่องบอกไว้เกี่ยวกับการตรวจจับเทรนส์นี้:
"Complex phrasal features are based on the frequency of specific words and phrases within the analyzed text that occur more frequently in human text."
…ของเหล่าฟีเจอร์วลีที่ซับซ้อนเหล่านี้ ฟีเจอร์สำนวนถือเป็นฟีเจอร์ที่มีความสามารถในการทำนายที่แม่นยำที่สุดในการตรวจสอบโมเดลจำลองปัจจุบัน”
ความไม่สามารถใช้อิดิอมของ ChatGPT ช่วยเพิ่มความเข้มแข็งให้กับเสียงและการอ่านของมัน
2. ChatGPT ไม่มีความสามารถในการแสดงออก
ศิลปินแสดงความคิดเห็นว่าผลลัพธ์ของ ChatGPT คล้ายกับศิลปะ แต่ขาดคุณสมบัติที่แท้จริงของการแสดงออกทางศิลปกรรม
การแสดงออกคือการสื่อความคิดหรือความรู้สึก
ผลลัพธ์ของ ChatGPT ไม่มีอารมณ์ แค่คำเท่านั้น
มันไม่สามารถสร้างเนื้อหาที่สัมผัสได้ถึงอารมณ์ของมนุษย์ในระดับเดียวกันกับมนุษย์ได้ เพราะมันไม่มีความคิดหรือความรู้สึกจริงๆ
นักดนตรีชื่อ Nick Cave ในบทความที่โพสต์ในจดหมายข่าว Red Hand Files ของเขาแสดงความคิดเห็นเกี่ยวกับเนื้อเพลง ChatGPT ที่ถูกส่งถึงเขา และถูกสร้างขึ้นในสไตล์ของ Nick Cave
ชุดเครื่องมือการตลาดเนื้อหาที่มีพลัง AI ใหม่
นำเทคโนโลยีรุ่นใหม่ต่อไปนี้มาใช้ก่อนที่คู่แข่งของคุณจะทำ เขียนเนื้อหาอย่างจัดการคล่องและเป้าหมายที่สามารถส่งผลลัพธ์ได้เร็วขึ้นสามเท่า
เขาได้เขียนว่า:
"สิ่งที่ทำให้เพลงที่ยอดเยี่ยม ยอดเยี่ยมก็ไม่ใช่ความคล้ายคลึงกับงานที่รู้จักได้"
...มันคือการเผชิญหน้ากับความเปราะบางของตนเอง, ความเป็นอันตราย, ความน้อยด้อย ที่ต่อต้านกับความรู้สึกที่มีการค้นพบขึ้นอย่างรุนแรง; และเป็นการกระทำที่มีฐานนิยมที่ช่วยกระตุ้นหัวใจของผู้ฟัง โดยผู้ฟังสามารถรับรู้ได้ว่าในผลงานเพลง มีการตกแต่งภายในของเพลงเกี่ยวข้องกับเลือด, ความพยายาม, และความทุกข์ทม.
ถ้ำเรียกเนื้อเพลง ChatGPT ว่าเป็นการเย้ยหยัน
นี่คือเนื้อเพลง ChatGPT ที่คล้ายเนื้อเพลงของ Nick Cave:
"ฉันมีเลือดของเทวาที่แท้จริงอยู่บนมือฉัน
ฉันมีไฟป่าวปรารถนาในสายตาฉัน
ฉันเป็นกษัตริย์แห่งห้วงมังกรและผู้ควบคุมความมืด
ฉันเป็นคนที่พวกเขากลัวในเงาผีเสื้อ"
และนี่คือเนื้อเพลงจาก Nick Cave (Brother, My Cup Is Empty):
“ฉันลื่นล้มลงบนรุ้งสี
ฉันแกว่งแขนส่งต่อดวงดาว
แต่ตอนนี้หนุ่มนี่กลายเป็นโสภา
ก้าวขึ้นมาสองขึ้นเสียงถ้วย
ดูสิ ถ้วยของฉันว่างเปล่า!
ดูเหมือนว่าฉันไปทิ้งความปรารถนาไปแล้ว
ดูเหมือนว่าฉันกำลังปักหมุดตะกอน
ของควันเก่าๆ ทั้งหมด”
คุณสามารถเห็นได้ว่าเนื้อเพลงที่สร้างด้วยเครื่องจะ คล้ายกับ เนื้อเพลงของศิลปิน แต่มันไม่สื่ออะไร
เนื้อเพลงของ Nick Cave เล่าเรื่องราวที่สะท้อนความหวังดี ความเสียใจ ความอับอายและการหลอกลวงอย่างตลกขบขันของผู้พูดในเพลง มันแสดงออกฉันทะเลาะคิดและความรู้สึก
จากสิ่งที่เห็น อย่างง่ายดายเราสามารถเข้าใจได้ว่า Nick Cave เรียกมันว่าการเยาะเล่น
3. ChatGPT ไม่สร้างความเข้าใจ
บทความที่เผยแพร่ใน The Insider อ้างอิงจากนักวิชาการที่ระบุว่า ไอ้ของ ChatGPT สร้างเอสเซย์โดยไม่มีการจัดการเนื้อหาอย่างมีเหตุผล
ChatGPT สรุปเนื้อหาแต่ไม่ได้ให้การมองเห็นแนวคิดที่ไม่เหมือนใครเกี่ยวกับเรื่องที่ต้องการพูดถึง
มนุษย์สร้างสรรค์ผ่านความรู้ แต่ยังสร้างผ่านประสบการณ์ส่วนตัวและมุมมองส่วนบุคคลของพวกเขาด้วย
หมายเหตุ: ไม่ต้องแปลเนื้อหาภายในแท็กโค้ด สำหรับเนื้อหาที่อยู่ภายในแท็ก img จะแปลหน้าที่ alt แต่คงทิ้งแอตทริบิวต์อื่น ๆ ลงไป เหลือเพียง html เดิมหลังจากแปลเท่านั้น
ศาสตราจารย์ Christopher Bartel ของมหาวิทยาลัย Appalachian State กล่าวว่า ในขณะที่เรียงความของ ChatGPT อาจมีคุณภาพไวยากรณ์สูงและความคิดที่ซับซ้อน แต่ยังขาดความคิดที่เชี่ยวชาญ
บาร์เทลกล่าวว่า:
"พวกเขานุ่มมากๆ ไม่มีบทความเพิ่มเติม ไม่มีความลึกซึ้งหรือความเข้าใจ"
ความเข้าใจลึกซึ้งเป็นสิ่งที่เป็นเครื่องหมายแสดงถึงความสำเร็จของเรียงความและมันเป็นสิ่งที่ ChatGPT ไม่ค่อยเก่งเท่าไหร่
ความสับสนนี้ควรระวังไว้เมื่อวิเคราะห์เนื้อหาที่สร้างด้วยเครื่องก็เป็นเช่นกัน
4. ChatGPT พูดมากเกินไป
ในเดือนมกราคม พ.ศ. 2566 มีการตีพิมพ์บทความวิจัยพบรูปแบบในเนื้อหาของ ChatGPT ที่ทำให้ไม่เหมาะสมสำหรับการใช้งานในการวิเคราะห์อย่างละเอียด
เรื่องโครงงานคือ ChatGPT มีความใกล้เคียงกับผู้เชี่ยวชาญมนุษย์แค่ไหน? การเปรียบเทียบ Corpus, การประเมินผลและการตรวจสอบ
การวิจัยพบว่ามนุษย์มักชอบคำตอบจาก ChatGPT มากกว่า 50% ของคำถามที่เกี่ยวข้องกับการเงินและจิตวิทยาที่ตอบได้
แต่ ChatGPT ไม่สามารถตอบคำถามทางการแพทย์ได้เพราะมนุษย์ชอบการตอบคำถามโดยตรง - ซึ่งเป็นสิ่งที่ AI ไม่ได้จัดหาให้
นักวิจัยได้เขียนว่า:
“…ChatGPT มีประสิทธิภาพต่ำเมื่อมีความช่วยเหลือสำหรับโดเมนทางการแพทย์ทั้งในภาษาอังกฤษและจีน"
ChatGPT บ่อยครั้งในชุดข้อมูลที่เราเก็บรวบรวมมักจะให้คำตอบทั่วไปโดยยาวนานในการให้บริการปรึกษาทางการแพทย์ ในขณะที่ผู้เชียวชาญมักจะให้คำตอบหรือข้อเสนอแนะเป็นรายละเอียดน้อยกว่าซึ่งอาจอธิบายได้เพราะฉะนั้นอาสาสมัครได้คิดว่าคำตอบจากมนุษย์จะมีประโยชน์มากกว่าในด้านการแพทย์
ChatGPT มุ่งเน้นการสนทนาเกี่ยวกับหัวข้อจากมุมมองต่าง ๆ ซึ่งทำให้ไม่เหมาะสำหรับกรณีที่คำตอบที่ดีที่สุดเป็นคำตอบตรงไปตรงมา
ผู้ตลาดที่ใช้ ChatGPT ต้องระวังเรื่องนี้ เนื่องจากผู้เข้าชมเว็บไซต์ที่ต้องการคำตอบโดยตรงจะไม่พอใจกับหน้าเว็บที่พูดมากเกินไป
และโชคดีกับการจัดอันดับหน้าที่มีคำอธิบายเยอะเกินไปใน Google’s featured snippets นั้น การตอบคำถามอย่างกระชับและชัดเจนที่เหมาะสมกับ Google Voice อาจจะมีโอกาสจัดอันดับได้มากกว่าคำตอบที่ยืดหยุ่นเหลวไหลหลั่ง
OpenAI, ผู้ผลิตของ ChatGPT, รับรู้ว่าการให้คำตอบที่ยืดเยื้อในการตอบคำถามเป็นข้อจำกัดที่รู้จักกันอย่างดี
บทความประกาศของ OpenAI กล่าวว่า:
"โมเดลมักจะพูดมากเกินไป..."
การมีความลึกซึ้งของคำตอบใน ChatGPT นั้นเป็นสิ่งที่ควรสำรวจในขณะที่ใช้ผลลัพธ์จาก ChatGPT เนื่องจากอาจพบสถานการณ์ที่จะต้องการคำตอบที่สั้นและตรงกว่า
5. แอปพลิเคชัน ChatGPT มีการจัดระเบียบเนื้อหาอย่างเป็นระบบและมีตรรกะชัดเจน
ChatGPT มีลักษณะการเขียนที่ไม่เพียงครบครันเท่านั้น แต่ยังโดดเด่นด้วยรูปแบบที่ให้เนื้อหามีสไตล์ที่ไม่เหมือนคนอื่น
คุณสมบัติที่ไม่มนุษย์นี้เปิดเผยในความแตกต่างระหว่างวิธีการตอบคำถามของมนุษย์และเครื่องจักร
ภาพยนตร์ Blade Runner มีฉากที่มีคำถามต่อเนื่องที่ออกแบบมาเพื่อเปิดเผยว่าผู้ตอบคำถามเป็นมนุษย์หรือแอนดรอยด์
ข้อสอบเหล่านี้เป็นส่วนหนึ่งของการทดสอบนามธรรมที่เรียกว่า "Voigt-Kampff test"
หนึ่งในคำถามคือ:
“คุณกำลังดูโทรทัศน์ แล้วคุณพบว่ามีแมลงวันคลายตัวอยู่บนแขนของคุณ คุณจะทำอย่างไร?”
การตอบสนองของมนุษย์ทั่วไปจะพูดว่าพวกเขาจะกรีดร้อง ออกไปเดินเล่นและต่อยมด
แต่เมื่อฉันถามคำถามนี้ถึง ChatGPT มันได้นำเสนอคำตอบที่อยู่ในลักษณะของการจัดระเบียบอย่างพิถีพิถันซึ่งสรุปคำถามและนำเสนอผลลัพธ์ที่เป็นไปได้หลายตัวเหมือนกัน - ไม่ได้ตอบคำถามจริงๆ
ภาพหน้าจอ ChatGPT ตอบคำถาม Voight-Kampff Test
![ภาพถ่ายแมลงสาบ-คำถาม-63d254a0ab63b-sej.png](https://static-lib.s3.amazonaws.com/cms/wasp_question_63d254a0ab63b_sej_867beff303.png)
คำตอบมีการจัดระเบียบและตรรกะอย่างมากเมื่อเทียบกับธรรมชาติ ซึ่งอาจไม่ต้องการ
6. ChatGPT เนื้อหามากเกินไปและครอบคลุมทุกรายละเอียด
ChatGPT ได้รับการฝึกฝนโดยให้เครื่องจำได้รับการตอบรับให้เป็นพอใจกับคำตอบจากมนุษย์
ผู้ประเมินมนุษย์มักชอบคำตอบที่มีรายละเอียดมากกว่า
แต่บางครั้ง เช่นในบริบททางการแพทย์ การให้คำตอบโดยตรงก็ดีกว่าการให้คำอธิบายอย่างละเอียด
นั่นหมายความว่าต้องให้เครื่องจักรได้รับการเรียกใช้เพื่อให้ได้รับการปรับเปลี่ยนให้เป็นเนื้อหาที่มีความสั้นและมีความเข้าใจง่ายมากขึ้นเมื่อมีความสำคัญ
จาก OpenAI:
“ปัญหาเหล่านี้เกิดจากสิ่งที่เรียกว่า อคติที่มีในข้อมูลการฝึก (ผู้ฝึกอาจมองหาคำตอบที่ยาวกว่าและดูครอบคลุมมากกว่า) และปัญหาการโอเวอร์โอพติไมซ์ที่เป็นที่รู้จัก”
7. แชทจีพีทีโกหยิบยกข้อมูลออกจากจินตนาการ
วิจัยที่อ้างถึงด้านบนนี้ชื่อว่าหัวข้อ "How Close is ChatGPT to Human Experts?" ได้ระบุว่า ChatGPT มีแนวโน้มที่จะโกหก
มันรายงานว่า:
“เมื่อตอบคำถามที่ต้องการความรู้ทางวิชาชีพจากสาขาที่เฉพาะเจาะจง ChatGPT อาจจะปลอมข้อมูลเพื่อให้ได้คำตอบ...
ตัวอย่างเช่นในคำถามทางกฎหมาย ChatGPT อาจจะสร้างกฎหมายที่ไม่มีอยู่จริงเพื่อตอบคำถาม
...นอกจากนี้ เมื่อผู้ใช้ถามคำถามที่ไม่มีคำตอบอยู่แล้ว ChatGPT ก็อาจแต่งเรื่องขึ้นมาเพื่อให้มีคำตอบได้
เว็บไซต์ Futurism บันทึกการเกิดข้อผิดพลาดโง่ๆ ของเนื้อหาที่สร้างจากเครื่องที่เผยแพร่บน CNET
CNET ควรจะมีความคิดเห็นว่าสิ่งเหล่านี้อาจเกิดขึ้นได้ เพราะ OpenAI ได้เผยแพร่คำเตือนเกี่ยวกับผลลัพธ์ที่ไม่ถูกต้อง:
“ChatGPT บางครั้งเขียนคำตอบที่ดูดีและเหมาะสม แต่ไม่ถูกต้องหรือไม่มีเหตุผล”
CNET อ้างว่าได้ส่งบทความที่สร้างจากเครื่องไปตรวจสอบโดยมนุษย์ก่อนการเผยแพร่
ปัญหาที่เกี่ยวข้องกับการตรวจสอบโดยมนุษย์คือเนื้อหา ChatGPT ถูกออกแบบมาให้เสียงดังนั้นอาจจะหลอกผู้ตรวจที่ไม่มีความเชี่ยวชาญในหัวข้อนั้น ๆ
8. ChatGPT ไม่ธรรมชาติเพราะมันไม่ได้แยกตัวออกไป
งานวิจัยเรื่อง "แชทจีพีทีเป็นเท่าไรกับผู้เชี่ยวชาญมนุษย์?" ยังระบุว่าการสื่อสารของมนุษย์สามารถมีความหมายเชิงอ้อมความหมายได้ ซึ่งต้องการการเปลี่ยนหัวข้อเพื่อเข้าใจ
ChatGPT มีความละเอียดอ่อนเกินไป ซึ่งทำให้คำตอบบางครั้งพลาดเป้าหมายเนื่องจาก AI มองข้ามเนื้อหาจริงๆ
นักวิจัยเขียนว่า:
“คำตอบของ ChatGPT โดยทั่วไปจะเน้นไปที่คำถามที่กำหนดเส้นทางไว้อย่างเข้มงวด ในขณะที่มนุษย์จะมีการคิดแบบสายตายาว และง่ายต่อการเปลี่ยนเป็นหัวข้อที่แตกต่างกัน”
เมื่อพูดถึงความอุดมสมบูรณ์ของเนื้อหา มนุษย์มีความแตกต่างกันในด้านต่าง ๆ ในขณะที่ ChatGPT มักจะเน้นการให้ความสำคัญกับคำถามเป็นสำคัญ
มนุษย์สามารถตอบความหมายที่ซ่อนอยู่ในคำถามโดยพิจารณาจากเหตุผลส่วนตัวและความรู้ของตัวเอง แต่ ChatGPT พึงพิจารณาจากคำถามที่อยู่ตรงตามตัวอักษรของมัน…”
มนุษย์สามารถห่างไกลจากคำถามตามความเป็นจริงได้ดีกว่า ซึ่งเป็นสิ่งสำคัญสำหรับการตอบคำถามประเภท "มีอะไรบ้าง"
ตัวอย่างเช่นหากฉันถาม:
"ม้าใหญ่เกินไปที่จะเป็นสัตว์เลี้ยงในบ้าน แต่อย่างไรกับเพนกวิน?"
คำถามด้านบนไม่ได้ถามว่าระู่จิ้งจอกเป็นสัตว์เลี้ยงที่เหมาะสมหรือไม่ คำถามเป็นเกี่ยวกับขนาดของสัตว์
ChatGPT ให้ความสำคัญกับความเหมาะสมของแรคคูนเป็นเพื่อนร่วมบ้าน โดยไม่ได้ให้ความสำคัญกับขนาด
ภาพหน้าจอของคำตอบ ChatGPT ที่ตรงตามความหมายอย่างเกินความจริง
![ภาพม้า คำถาม 63d25c2d93640-sej.png](https://static-lib.s3.amazonaws.com/cms/horse_question_63d25c2d93640_sej_3958f4e04c.png)
9. ChatGPT มีแนวโน้มเป็นกลางและเป็นกลาง
ผลลัพธ์จาก ChatGPT โดยทั่วไปเป็นกลางและแจ้งข้อมูล การมีแนวโน้มในผลลัพธ์อาจเป็นประโยชน์ แต่ไม่ใช่เสมอไป
งานวิจัยที่เราพึ่งพูดถึงได้บอกว่าความเป็นกลางไม่เป็นคุณสมบัติที่ต้องการเมื่อเกี่ยวข้องกับคำถามทางกฎหมาย ทางการแพทย์ และเทคนิค
คนมักจะเลือกฝ่ายเมื่อมีเสียงมีความคิดเห็นเช่นนี้
10. แชทจีพีทีเอ็ดมีความเอื้ออาจที่จะถูกต้องและเป็นทางการเกินไป
การแสดงผลของ ChatGPT มีโอบาสที่ทำให้มันไม่สามารถเปลี่ยนแปลงกันและตอบด้วยสำนวนที่ใช้ในชีวิตประจำวัน แต่มันจะตอบด้วยคำพูดที่เป็นรูปแบบอย่างเป็นทางการ
ในทางกลับกัน มนุษย์มักจะตอบคำถามด้วยสไตล์ที่สนุกสนานขึ้น โดยใช้ภาษาที่ใช้ในชีวิตประจำวันและสแลง - ข้อกันขั้วกับภาษาทางการ
ChatGPT ไม่ใช้สัญลักษณ์ย่อเช่น GOAT หรือ TL;DR
คำตอบยังไม่มีการใช้เหตุผลฉาว การใช้คำอุปมา และการนำเสนออย่างมีเสน่ห์ที่ทำให้เนื้อหาของ ChatGPT ดูมีน้ำเสียงเกินไปสำหรับบางประเภทของเนื้อหา
นักวิจัยเขียนว่า:
"...ChatGPT ชอบใช้คำเชื่อมและคำวิเคราะห์ในการสื่อสารแบบมีลำดับตามหลักความเป็นจริง เช่น "โดยทั่วไป", "ในทางกลับกัน", "ก่อนอื่น", "ต่อมา", "ในท้ายที่สุด" และอื่นๆ"
11. ChatGPT ยังอยู่ในช่วงการฝึกอบรม
ChatGPT ยังอยู่ในขบวนการฝึกอบรมและปรับปรุงอยู่ในขณะนี้
OpenAI แนะนำให้ตรวจสอบเนื้อหาที่สร้างขึ้นโดย ChatGPT โดยมนุษย์ และจัดเป็น best practice
OpenAI เสนอให้เก็บมนุษย์อยู่ในวงจร:
“เมื่อไหร่ก็ตามที่เป็นไปได้ เราขอแนะนำให้มีการตรวจสอบโดยบุคคลก่อนที่ผลลัพธ์จะถูกนำไปใช้งานจริง”
สิ่งที่สำคัญมากในโดเมนที่เสี่ยงต่อการเสียหายและสำหรับการสร้างโค้ด
มนุษย์ควรรับรู้ถึงข้อจำกัดของระบบ และสามารถเข้าถึงข้อมูลที่จำเป็นเพื่อตรวจสอบผลลัพธ์ (ตัวอย่างเช่น หากแอปพลิเคชันสรุปข้อความจากโน้ต มนุษย์ควรสามารถเข้าถึงโน้ตต้นฉบับได้อย่างง่ายดาย)
คุณสมบัติที่ไม่ต้องการจาก ChatGPT
จำเป็นต้องชี้แจงว่า มีปัญหาจำนวนมากกับ ChatGPT ที่ทำให้ไม่เหมาะสมสำหรับการสร้างเนื้อหาโดยไม่มีผู้ดูแล มีความเอื้ออาทรและไม่สามารถสร้างเนื้อหาที่ดูเป็นธรรมชาติหรือมีข้อเขียนที่แท้จริงได้
นอกจากนี้ ความไม่สามารถในการรับรู้หรือสร้างความคิดที่เป็นเอกลักษณ์ทำให้มันไม่เหมาะสมสำหรับการสร้างสรรค์ผลงานทางศิลป์
ผู้ใช้ควรใช้คำแนะนำที่ละเอียดเพื่อสร้างเนื้อหาที่ดีกว่าเนื้อหาเริ่มต้นที่มักจะแสดงออกมา
โดยท้ายที่สุดการตรวจสอบเนื้อหาที่ถูกสร้างขึ้นโดยเครื่องจักรไม่ใช่เรื่องที่มั่นใจได้เสมอ เพราะเนื้อหาของ ChatGPT ถูกออกแบบมาให้ดูถูกต้อง แม้ว่าจริงจะไม่ใช่
นั่นหมายความว่า การที่ผู้ตรวจสอบโดยมนุษย์เป็นผู้เชี่ยวชาญในหัวข้อที่เฉพาะเจาะจงเป็นสิ่งที่สำคัญเพื่อแยกแยะเนื้อหาที่ถูกต้องและไม่ถูกต้อง