จิตแพทย์จะว่ายังไง? เมื่อคนเริ่มใช้ ChatGPT เป็น ‘นักจิตบำบัดส่วนตัว’ กันแล้ว

จิตแพทย์จะว่ายังไง? เมื่อคนเริ่มใช้ ChatGPT เป็น ‘นักจิตบำบัดส่วนตัว’ กันแล้ว
 
.
นับจากต้นปี 2023 เป็นต้นมา ChatGPT ได้แพร่กระจายไปอย่างรวดเร็วมาก เพราะนี่ไม่ใช่เทคโนโลยีประหลาดสำหรับพวกไฮเทคเพียงอย่างเดียวอีกต่อไป แต่ใครๆ ก็ใช้ได้ และทุกๆ คนก็มักจะพบว่ามันช่วยแบ่งเบา ‘งาน’ ของพวกเขาได้จริง ไม่ทางใดก็ทางหนึ่ง ซึ่งที่สำคัญไปกว่านั้น คือการที่มันสามารถใช้ได้ฟรีบนเบราว์เซอร์ ก็ยิ่งทำให้คนแห่ไปใช้กันมากขึ้นเรื่อยๆ
.
การที่คนใช้ ChatGPT กันเยอะๆ แล้วมาแลกเปลี่ยนกันมันก็ทำให้เราได้เรียนรู้มากขึ้นว่า ChatGPT ทำอะไรได้บ้าง เพราะคนส่วนใหญ่จะเข้าไปถามมันโดยอ้างอิงจากฐานความรู้และหน้าที่การงานของตัวเอง ซึ่งรวมๆ คือมันก็ตอบอะไรได้ดู ‘น่าทึ่ง’ ไปหมด และกลายเป็นเหตุผลที่มันโดดเด่นขนาดนี้
.
แต่ทีนี้ก็มีแนวโน้มว่าคนจะใช้งานหรือพึ่งพา ChatGPT อย่างหนักข้อขึ้น และล่าสุดก็พบว่ามีคนกลุ่มหนึ่งเริ่มใช้งานมันในฐานะ ‘นักจิตบำบัดส่วนตัว’ กันแล้ว
.
คงไม่ต้องพูดกันมากว่ายุคปัจจุบัน ในทางสถิติคนมีปัญหาสุขภาพจิตกันเยอะกว่าในอดีต แต่อีกด้านหนึ่ง บุคลากรที่รับผิดชอบด้านการดูแลรักษาบำบัดด้านนี้กลับมีไม่เพียงพอ ซึ่งนั่นก็ยังไม่ต้องพูดถึงว่าการบำบัดด้านนี้ก็มีต้นทุนทางเศรษฐกิจสูงเอาการอยู่ และทำให้คนจำนวนมากลังเลที่จะไปเข้ารับการบำบัด
.
หรือพูดง่ายๆ นอกจากจิตแพทย์และนักจิตบำบัดจะมีไม่พอแล้ว สำหรับคนจำนวนมากการไปหาจิตแพทย์ก็ยังเป็นสิ่งที่ ‘แพงเกินไป’ ซึ่งนี่ก็ยังไม่ต้องนับว่าในหลายๆ ประเทศ (โดยเฉพาะในเอเชีย) การต้องไปหาจิตแพทย์ยังถูกคนบางส่วนในสังคมมองว่าเป็น ‘ตราบาป’ ที่จะทำให้ถูกเหมารวมว่า ‘จิตไม่ปกติ’
.
ในภาวะแบบนี้ สิ่งที่มาตอบโจทย์แบบงงๆ ก็คือ ChatGPT เพราะถ้าไปลองคุยกับมันราวกับว่ามันเป็นจิตแพทย์หรือนักจิตบำบัด หลายคนพบว่าคำตอบที่มีให้เราก็เหมือนๆ จิตแพทย์น่ะแหละ และนี่คือเหตุผลที่หลายคนก็คิดว่าถ้าเป็นแบบนี้ก็คุยกับ ChatGPT ดีกว่า จะไปเสียเวลาและเสียเงินไปบำบัดทางจิตทำไมกัน
.
จริงๆ สิ่งนี้คือสิ่งที่กระทั่ง CEO อย่าง OpenAI เคยพูดด้วยซ้ำว่า ChatGPT จะมาแทนที่บริการทางการแพทย์ในหลายๆ ด้านซึ่ง ‘แพงหูฉี่’ ในสหรัฐอเมริกา ซึ่งตั้งแต่ตอนนั้นแล้วที่คนออกมาปรามว่านั่นไม่ใช่สิ่งที่ควรจะเกิดขึ้น และพอคนเริ่มใช้ ChatGPT เป็น ‘จิตแพทย์’ หรือ ‘นักจิตบำบัด’ ก็มีคนออกมาเตือนอีกครั้งว่า ‘ไม่เหมาะสม’
.
ทำไมถึงเป็นแบบนั้น?
.
ประการแรก ChatGPT มีประวัติไม่ดีนักในการให้คำแนะนำเกี่ยวกับชีวิตมนุษย์ เพราะไม่นานมานี้มีคนทดลองถาม ChatGPT แล้วได้รับแนะนำให้ไป ‘ฆ่าตัวตาย’ ก็มี และนอกจากนี้ก็มีข่าวออกมาว่าชาวเบลเยียมผู้หนึ่งซึ่งเคยคุยกับ ChatGPT ตัดสินใจจบชีวิตตัวเองจริงๆ ในเวลาต่อมา พูดง่ายๆ ก็คือมีความเป็นไปได้สูงที่ ChatGPT จะให้คำแนะนำที่ไม่เหมาะสมกับคนที่สภาพจิตใจอ่อนไหว และอาจทำให้พวกเขาเกิดอันตรายถึงชีวิตได้
.
ประการที่สอง เป็นเรื่องที่น่าจะสำคัญที่สุด และเป็นปัญหาของ AI ทุกชนิด คือ ‘ปัญหาเรื่องความรับผิดชอบ’ ซึ่งที่เป็นแบบนี้ก็เพราะ AI อาจทำงานแทนมนุษย์ได้สารพัดก็จริง แต่มันไม่สามารถ ‘แสดงความรับผิดชอบ’ ได้ หรือในกรณีที่ AI ทำอะไรผิด ก็ไม่มีใครต้อง ‘รับโทษ’ ซึ่งปัญหาคือบางครั้งมันก็อาจเกิดความเสียหายจริงๆ ดังที่กล่าวมาข้างต้น ซึ่งถ้าเกิดภาวะแบบนี้แล้วจะหาตัว ‘คนผิด’ ไม่ได้เลย
.
จริงอยู่ที่พวกบริษัทที่ให้บริการ AI จะพยายามใส่ทั้งคำเตือน คำแนะนำ หรือกระทั่งมีคำสั่งบล็อก AI ไม่ให้ตอบคำถามบางอย่าง แต่ในความเป็นจริงทางผู้ใช้ก็มีเทคนิคในการดัดแปลงระบบ (Jailbreak) ให้ AI พูดหรือตอบในสิ่งที่มันถูกห้ามได้สารพัด เช่น เทคนิคการ ‘เล่นบทบาทสมมติ’ ที่ฮิตๆ กัน ซึ่งในแง่นี้ ถึงจะบล็อก ChatGPT แต่คนจำนวนมากก็สามารถจะทะลวงการบล็อกได้ และใช้ ChatGPT ในเรื่องที่ถูกห้ามใช้ได้อยู่ดี
.
ถ้าจะพูดให้ถึงที่สุด ถึงเราจะจำกัดประเด็นบทสนทนากับ ChatGPT ได้จริงๆ แต่โลกนี้ก็ไม่ได้มี AI ตอบคำถามแค่เพียง ChatGPT เพราะก็มีเทคโนโลยีแบบนี้อีกหลายตัวที่เป็นโมเดลแบบ ‘แจกฟรี’ ให้คนไปพัฒนาต่อได้ ซึ่งของพวกนี้ก็พูดได้เลยว่ามันคุมไม่ได้อย่างสมบูรณ์ เพราะในทางเทคนิค บริษัทนั้นไม่สามารถควบคุมได้แน่ๆ ว่า ‘ผู้ใช้’ จะเอามันไปพัฒนายังไงต่อ หรือพูดง่ายๆ ถึงเราจะบล็อกหรือแบนการใช้ ChatGPT ในการเป็นจิตแพทย์หรือนักบำบัดส่วนตัว สิ่งที่จะเกิดขึ้นก็คือยังไงก็จะมี ‘AI ตอบคำถาม’ ตัวอื่นๆ มาเล่นบทบาทนี้แทน ChatGPT อยู่ดี และเราไม่มีทางจะบล็อกมันได้หมด
.
นี่เลยทำให้สถานการณ์จริงมันไม่ใช่ง่ายๆ ที่จะตอบได้ว่า ‘จะทำยังไง’ กับการที่คนเริ่มใช้ AI เป็นจิตแพทย์หรือนักจิตบำบัดส่วนตัว เพราะเราอาจคุยกันได้ยาวเฟื้อยในเรื่องความเหมาะสม (หรือไม่เหมาะสม) แต่ในทางปฏิบัติ Generative AI ในภาพรวม ณ ปัจจุบันก็เป็นเทคโนโลยีที่แทบจะ ‘หยุดไม่ได้’ อยู่แล้ว
.
ดังนั้น สิ่งที่เราควรจะคิดต่ออาจไม่ใช่คำถามว่า เทคโนโลยีนี้ควรจะมีอยู่หรือไม่ แต่ควรถามว่า ‘เราจะอยู่ร่วมกับมันยังไง’ จะทำยังไงให้คนที่จะใช้งานประสบกับอันตรายน้อยที่สุด และนี่น่าจะเป็นมุมมองที่ดีต่อ AI มากกว่าการพยายามจะยับยั้งมัน เพราะเราก็อาจต้องตระหนักเช่นกันว่า ไม่น่าจะมีวิธีการใดที่จะปิด ‘กล่องแพนโดรา’ ที่ถูกเปิดออกมาแล้วนี้ได้
.
 
 
Visitors: 1,218,226