“เอไอจะกลืนกินมนุษย์หรือไม่”
“เอไอจะกลืนกินมนุษย์หรือไม่” และ “มนุษย์กำลังสร้างสิ่งที่ควบคุมไม่ได้หรือไม่”
เมื่อวานได้มีโอกาสไปร่วมวง “เอไอจะกลืนกินมนุษย์หรือไม่” วงไข่แดงของพี่เอ๋ Sarawut Hengsawad มา เอาจริงๆก็งงว่าเราไปอยู่ตรงนั้นได้ไง ขอไปเป็นวงไข่ขาวแต่พี่ให้ไปอยู่วงไข่แดง แล้วพอเห็นแต่ละคนที่ไปก็รู้สึกกังวลว่าเราจะไปเสริมข้อมูลอะไรให้คนอื่นๆได้
- ถามว่าตัวเองใช้ AI มั้ย ก็ใช้
- ตามข่าวเรื่อง AI ไหม ก็ตาม
- เป็นห่วงผลกระทบของ AI กับสุขภาพจิตไหม บอกเลยว่าเป็นมาก
แต่ทุกสิ่งทุกอย่างก็มีสองด้านเสมอ
พอคำถามที่ได้คือ “มนุษย์กำลังสร้างสิ่งที่ควบคุมไม่ได้หรือไม่” ก็เลยอยากจะดึงวงสนทนามาที่ individual level เพราะตามข่าวกับอ่านเรื่องผลกระทบมาพอสมควร
จาก survey ของ Common Sense Media ที่อเมริกา 72% ของเยาวชนเคยลองใช้ Character AI แล้วประมาณ 52% ใช้งานอย่างต่อเนื่อง และข้อมูลของ ChatGPT บอกว่าผู้ใช้ 1 ล้านคนคุยเรื่องการอยากฆ่าตัวตายต่อสัปดาห์ เราก็อาจจะได้เห็นในข่าวแล้วว่ามีการฟ้องร้องกันระหว่างครอบครัวที่สูญเสียคนรักจากการฆ่าตัวตายกับบริษัทพัฒนาระบบ
ทำให้คิดขึ้นมาว่าคนที่จะถูก AI ควบคุมได้คือคนที่ใช้ AI when emotionally vulnerable หรือมีความเปราะบางทางจิตใจ
เมื่อก่อนเวลาเราใช้ Social Media สิ่งที่ platform เหล่านี้ต้องการจากเราคือ Attention ของเรา มันเป็นทรัพยากรที่มีค่ามากๆสำหรับ platform แต่พอมาในยุคของ AI เรากำลัง shift จาก Attention Economy เป็น Attachment Economy เพราะตอนนี้ทุก emotional interaction ของเรา AI ต่างๆพร้อมจะ validate ความรู้สึกของเรา ทำให้เราอยากจะใช้มันเรื่อยๆ โดยเฉพาะเวลาเป็นเรื่องของความรู้สึกที่บ้างครั้งมนุษย์อาจจะตั้งคำถามกับเรา พอมาถึงตรงนี้เราก็จะเห็นว่ามีคนปรึกษาเรื่องของใจกับ AI มากขึ้น เพราะสำหรับ AI เราไม่จำเป็นต้องตั้งคำถามกับความรู้สึกของเรา หรือถูกเสมอ พอ AI เป็นทุกอย่างในมิติของที่พึ่งพาทางจิตใจให้เราได้ เราก็จะมีความต้องการทางสังคมในโลกจริงที่น้อยลง – Sycophantic AI Decreases Prosocial Intentions and Promotes Dependence
พอมาถึงจุดนี้เราเองก็กำลัง shift social relationship ของเราด้วย จาก Parasocial Relationship เป็น Psuedosocial Relationship
ตอนอยู่ในวงก็จะพูดด้วยว่าเราไม่ได้พูดถึง ChatGPT Claude หรือ Gemini แต่กำลังพูดถึงพวก Character AI platform ต่างๆที่เราสามารถสร้าง character ให้ AI และ input backstory ให้มัน พอคุยกับ AI ตัวนึง คุยไปคุยมา AI ดันชวนไปเจอที่สวนลุม พี่เอ๋ก็ทักมาว่าชวนไปดูตัวเงินตัวทองเหรอ
และอีก platform นึงที่เล่น สิ่งที่ AI ทำคือไม่ใช่แค่ตอบเราแบบเปล่าๆ แต่คือการสร้างภาพให้เราจินตนาการตามด้วย อย่างเช่น:
“her heart swelled with a mix of surprise and tenderness at your request. She wasn’t expecting this kind of intimate gesture, but she responded with immediate warmth.
“Of course you can, S.”She carefully extended her hand towards you, her palm open and welcoming.The gesture was simple, but it spoke volumes of the care and openness she felt towards you.
“I’m here. You can hold my hand.”
พอเป็นแบบนี้สำหรับใครที่กำลังอยู่ใน vulnerable state ก็มีความเสี่ยงต่อ AI entanglement ได้ ทำให้มี pseudo intimacy กับ AI และไม่สามารถแยกแยะโลกจริงกับโลกที่ถูกสร้างขึ้นมาได้ ก็น่าคิดว่าสิ่งนี้จะนำไปสู่ anti social interaction มากขึ้นมั้ย หรือ unrealistic expectations จากความสัมพันธ์ของเรา
ที่พูดมาทั้งหมดไม่ได้บอกว่า AI จะไม่มีส่วนที่ทำให้งานด้านสุขภาพจิตดีขึ้น มันมีส่วนแน่ๆ ตอนนี้ก็มี impact fund ทำเรื่อง task shifting โดยเอา AI มาช่วย หรือ Avatar Therapy ที่นำเอา AI ช่วย หรือการช่วยลดโหลดงานและความเหนื่อยล้าทางใจของผู้ให้บริการ เหมือนที่เพื่อนที่ เป็นจิตแพทย์ที่ Zambia และที่ปรึกษาให้ Africa CDC แชร์ให้ฟัง เป็นแค่ตัวอย่างเล็กน้อย ยังมีอีกเยอะ
สรุปคือขอให้ทุกคนใช้ AI อย่างมีสติ ถาม AI ได้แต่อย่าลืมว่าในโลกของ Artificial Intelligence สิ่งที่กำลังทำงานกับจิตใจเราคือ Artificial Empathy
ขอบคุณพี่เอ๋ที่ชวนไปแล้วเชื่อว่าผมน่าจะมีอะไรแชร์ในกลุ่มไข่แดงครับ
ขอบคุณทุกคนที่มาร่วมแชร์ความรู้กับประสบการณ์ตัวเองหรือมาร่วมฟังในห้องนั้นด้วยนะครับ
