[ สุขใจ ดอท คอม บ้านหลังเล็กอันแสนอบอุ่น ] ธรรมะ พุทธประวัติ ฟังธรรม ดูหนัง ฟังเพลง เกมส์ เบาสมอง ดูดวง สุขภาพ สารพันความรู้

นั่งเล่นหลังสวน => สุขใจ ร้านน้ำชา => ข้อความที่เริ่มโดย: สุขใจ ข่าวสด ที่ 30 มีนาคม 2567 07:35:06



หัวข้อ: [ข่าวมาแรง] - AI ติดตามอารมณ์ในที่ทำงาน: พนักงานกลัวถูกสังเกตการณ์-ถูกเข้าใจผิด
เริ่มหัวข้อโดย: สุขใจ ข่าวสด ที่ 30 มีนาคม 2567 07:35:06
AI ติดตามอารมณ์ในที่ทำงาน: พนักงานกลัวถูกสังเกตการณ์-ถูกเข้าใจผิด
 


<span class="submitted-by">Submitted on Fri, 2024-03-29 15:37</span><div class="field field-name-body field-type-text-with-summary field-label-hidden"><div class="field-items"><div class="field-item even" property="content:encoded"><p>พบบริษัทขนาดใหญ่ในสหรัฐอเมริกากว่า 50% ใช้ "ปัญญาประดิษฐ์จับอารมณ์" (Emotion AI) เพื่อวิเคราะห์สภาพจิตใจของพนักงาน แต่มีการศึกษาชี้ว่าพนักงานกลัวถูกสังเกตการณ์และการถูกเข้าใจผิด ชี้เทคโนโลยีนี้น่าจะมีผลเสียมากกว่าผลดี</p>
<p style="text-align: center;"><img alt="" src="https://live.staticflickr.com/65535/53611285827_b416f2824e_o_d.jpg" />
<span style="color:#f39c12;">ภาพประกอบสร้างจากเทคโนโลยี AI ของ Image Creator from Microsoft Designer</span></p>
<p>ปัจจุบันมีการใช้ "ปัญญาประดิษฐ์จับอารมณ์" (Emotion AI) ซึ่งอาศัยสัญญาณชีวภาพต่าง ๆ เช่น น้ำเสียง สีหน้า ข้อมูลจากอุปกรณ์สวมใส่ที่ติดกับร่างกาย รวมถึงข้อความและการใช้งานคอมพิวเตอร์ เพื่อวิเคราะห์และคาดการณ์ความรู้สึกของบุคคล เทคโนโลยีนี้ถูกนำไปใช้ในหลากหลายบริบท ตั้งแต่เรื่องทั่วไปอย่างความบันเทิง ไปจนถึงเรื่องสำคัญอย่างการทำงาน การคัดเลือกพนักงาน และการดูแลสุขภาพ</p>
<p>หลายอุตสาหกรรมนำ Emotion AI มาใช้แล้ว เช่น ศูนย์บริการโทรศัพท์, การเงิน, ธนาคาร, งานพยาบาล และงานดูแลผู้สูงอายุ ในสหรัฐอเมริกา บริษัทขนาดใหญ่กว่า 50% ใช้ปัญญาประดิษฐ์จับอารมณ์เพื่อวิเคราะห์สภาพจิตใจของพนักงาน ซึ่งแนวทางนี้ได้รับความนิยมมากขึ้นในช่วงการแพร่ระบาดของโควิด-19 ตัวอย่างเช่น ศูนย์บริการโทรศัพท์ใช้ติดตามคำพูดและน้ำเสียงของพนักงาน เป็นต้น</p>
<p>แต่นักวิชาการตั้งข้อกังวลเกี่ยวกับความน่าเชื่อถือทางวิทยาศาสตร์ของเทคโนโลยี Emotion AI นี้และการอ้างอิงทฤษฎีเกี่ยวกับความรู้สึกก็ยังเป็นที่ถกเถียงกันอยู่</p>
<p>นอกจากนี้ ยังมีการชี้ประเด็นเกี่ยวกับศักยภาพของ Emotion AI ในการละเมิดความเป็นส่วนตัว และความเสี่ยงที่จะเกิดอคติทางเชื้อชาติ เพศ และความพิการ</p>
<p>นายจ้างบางส่วนใช้งานเทคโนโลยีนี้ราวกับว่ามันไร้ที่ติ ขณะที่นักวิชาการบางกลุ่มพยายามลดอคติและพัฒนาความน่าเชื่อถือ  บางกลุ่มเสนอให้ยกเลิกการใช้ Emotion AI โดยสิ้นเชิง หรืออย่างน้อยก็จนกว่าผลกระทบที่อาจเกิดขึ้นจะชัดเจนมากขึ้น</p>
<p>ทั้งนี้มีความจำเป็นต้องตรวจสอบผลกระทบของ Emotion AI จับอารมณ์ที่มีต่อผู้ที่ถูกใช้งานเทคโนโลยีนี้ โดยเฉพาะพนักงาน –  ยิ่งอย่างยิ่งกับพนักงานกลุ่มเสี่ยง เช่น กลุ่มคนชายขอบทางเชื้อชาติ เพศ และความพิการ</p>
<h2><span style="color:#3498db;">ความกังวลของพนักงาน</span></h2>
<p style="text-align: center;"><img alt="" src="https://live.staticflickr.com/65535/53611389957_9ab78dc199_o_d.jpg" />
<span style="color:#f39c12;">ภาพประกอบสร้างจากเทคโนโลยี AI ของ Image Creator from Microsoft Designer</span></p>
<p>เพื่อทำความเข้าใจแนวโน้มการใช้เทคโนโลยี Emotion AI ในที่ทำงาน นาซานิน อันดาลิบี (Nazanin Andalibi) ผู้ช่วยศาสตราจารย์ด้านข้อมูลข่าวสาร แห่งมหาวิทยาลัยมิชิแกน (University of Michigan) และ เคเรน บอยด์ (Karen Boyd) ได้วิเคราะห์แนวคิดของเทคโนโลยีเกี่ยวกับ Emotion AI ในที่ทำงาน โดยได้ศึกษาจากคำขอรับสิทธิบัตรเทคโนโลยี Emotion AI ที่เสนอสำหรับใช้งานในองค์กร สำหรับประโยชน์ที่ผู้ยื่นขอสิทธิบัตรอ้างถึง ได้แก่ การประเมินและส่งเสริมสุขภาพจิตใจของพนักงาน, การสร้างความปลอดภัยในที่ทำงาน, การเพิ่มผลผลิต และการช่วยเหลือในการตัดสินใจ เช่น การเลื่อนตำแหน่ง, การเลิกจ้างพนักงาน และการมอบหมายงาน</p>
<p>ทีมวิจัยสงสัยว่าพนักงานคิดเห็นอย่างไรเกี่ยวกับเทคโนโลยีเหล่านี้ พวกเขาจะมองเห็นประโยชน์ตามที่ผู้ยื่นขอสิทธิบัตรอ้างถึงหรือไม่ ตัวอย่างเช่น พนักงานจะรู้สึกเป็นประโยชน์หรือไม่ หากนายจ้างให้การสนับสนุนด้านสุขภาพจิตใจแก่พวกเขา จึงได้ทำการสำรวจกลุ่มตัวอย่างที่ค่อนข้างเป็นตัวแทนของประชากรสหรัฐฯ รวมถึงกลุ่มตัวอย่างเพิ่มเติมที่เน้นคนผิวสี บุคคลข้ามเพศและไม่ยึดติดเพศภาพ และผู้ป่วยโรคทางจิตเวช กลุ่มเหล่านี้มีโอกาสได้รับผลกระทบเชิงลบจาก Emotion AI มากกว่ากลุ่มอื่น ๆ</p>
<p>การศึกษานี้มีผู้เข้าร่วม 289 คนจากกลุ่มตัวอย่างหลัก และ 106 คนจากกลุ่มตัวอย่างเพิ่มเติม ผลการศึกษาพบว่า 32% ของผู้ตอบแบบสอบถาม รายงานว่า พวกเขาไม่เคยได้รับหรือคาดหวังว่าจะได้รับประโยชน์ใด ๆ จากการใช้ Emotion AI ไม่ว่าจะในปัจจุบันหรืออนาคต</p>
<p>แม้ว่าพนักงานบางส่วนมองเห็นศักยภาพในแง่ผลประโยชน์ เช่น การได้รับการสนับสนุนด้านสุขภาพจิตใจที่ดีขึ้นและความปลอดภัยในที่ทำงาน ซึ่งสอดคล้องกับประโยชน์ที่อ้างในคำขอรับสิทธิบัตร แต่ในขณะเดียวกัน พวกเขายังแสดงความกังวลเกี่ยวกับผลกระทบเชิงลบด้วย โดยกังวลว่าเทคโนโลยีนี้จะส่งผลเสียต่อสุขภาพจิตใจและความเป็นส่วนตัว ส่งผลต่อประสิทธิภาพการทำงานและสถานะการจ้างงาน รวมถึงมีความลำเอียงและตีตราทางด้านสุขภาพจิต</p>
<p>นอกจากนี้ยังพบว่า 51% ของผู้เข้าร่วมศึกษา กังวลเรื่องความเป็นส่วนตัว, 36% ชี้ให้เห็นถึงโอกาสที่นายจ้างจะยอมรับข้อมูลที่ไม่ถูกต้องจาก Emotion AI โดยไม่พิจารณาอย่างรอบคอบ และ 33% กังวลว่าข้อมูลที่ประเมินโดย Emotion AI อาจถูกนำไปใช้ในการตัดสินใจเกี่ยวกับการจ้างงานที่ไม่เป็นธรรม</p>
<h2><span style="color:#3498db;">เสียงสะท้อนจากผู้เข้าร่วมวิจัย</span></h2>
<p>ผู้เข้าร่วมวิจัยท่านหนึ่งซึ่งมีปัญหาสุขภาพหลายอย่างกล่าวว่า “การรู้ว่าตัวเองถูกวิเคราะห์ กลับส่งผลเสียต่อสุขภาพจิตใจของฉัน”</p>
<p>สิ่งนี้สะท้อนว่า แม้เป้าหมายที่อ้างถึงของ Emotion AI คือการวิเคราะห์และยกระดับสุขภาพจิตใจของพนักงานในที่ทำงาน แต่การใช้งานเทคโนโลยีนี้กลับส่งผลตรงกันข้าม กล่าวคือ ความเป็นส่วนตัวที่ลดลง ส่งผลให้สุขภาพจิตใจแย่ลง</p>
<p>นอกจากนี้ มีงานวิจัยที่เกี่ยวข้องชี้ว่าการสูญเสียความเป็นส่วนตัวอันเกิดจาก Emotion AI ส่งผลกระทบต่อหลายด้านของความเป็นส่วนตัว เช่น ด้านจิตใจ  เสรีภาพ เศรษฐกิจ ความสัมพันธ์  สุขภาพกาย และการถูกเลือกปฏิบัติ</p>
<p>ผู้เข้าร่วมวิจัยรายหนึ่งที่มีอาการป่วยทางจิตเวช วิตกกังวลว่าการติดตามอารมณ์อาจส่งผลต่อการรักษาตำแหน่งงาน โดยกล่าวว่า "พวกเขาอาจตัดสินใจว่าฉันไม่เหมาะกับงานนี้อีกต่อไป และไล่ฉันออก พวกเขาอาจตัดสินใจว่าฉันไม่มีความสามารถเพียงพอที่จะได้รับการเลื่อนตำแหน่ง หรือคิดว่าฉันทำงานไม่หนักพอ"</p>
<p>นอกจากนี้ ผู้เข้าร่วมวิจัยยังกังวลว่าการใช้ Emotion AI อาจยิ่งขยายช่องว่างของอำนาจในที่ทำงาน พวกเขากังวลเกี่ยวกับปฏิสัมพันธ์ระหว่างตนเองกับนายจ้างหากมีการนำเทคโนโลยีนี้มาใช้ในที่ทำงาน  โดยชี้ให้เห็นว่า การใช้ Emotion AI อาจทำให้ความตึงเครียดระหว่างนายจ้างกับพนักงานที่เคยมีอยู่แล้วรุนแรงมากขึ้น</p>
<p>ตัวอย่างเช่น ผู้ตอบแบบสอบถามคนหนึ่งกล่าวว่า "อำนาจควบคุมที่นายจ้างมีเหนือลูกจ้างอยู่แล้ว บ่งบอกว่าจะมีการตรวจสอบน้อยมากว่าข้อมูลเหล่านี้จะถูกนำไปใช้อย่างไร  'การยินยอม' ใด ๆ (จาก) พนักงานนั้นแทบจะเป็นภาพลวงตาในบริบทนี้"</p>
<p>สุดท้าย ผู้เข้าร่วมวิจัยยังชี้ให้เห็นถึงผลกระทบเชิงลบที่อาจเกิดขึ้น เช่น ความไม่แม่นยำทางเทคนิคของ Emotion AI ซึ่งอาจสร้างภาพลักษณ์ที่ผิดพลาดเกี่ยวกับตัวพนักงาน นอกจากนี้ ระบบ Emotion AI ยังอาจสร้างและส่งเสริมอคติและตีตราต่อพนักงาน</p>
<p>ผู้เข้าร่วมวิจัยเน้นย้ำถึงความกังวลเกี่ยวกับการที่นายจ้างจะพึ่งพาระบบ Emotion AI ที่ไม่แม่นยำและมีความลำเอียง โดยเฉพาะอย่างยิ่งกับคนผิวสี ผู้หญิง และบุคคลข้ามเพศ</p>
<p>ตัวอย่างเช่น ผู้เข้าร่วมวิจัยคนหนึ่งกล่าวว่า "ใครเป็นคนตัดสินว่าท่าทางแบบไหน 'ดูรุนแรง'  และเราจะตัดสินว่าใครเป็นภัยคุกคามแค่จากสีหน้าได้อย่างไร? ระบบสามารถอ่านใบหน้าได้ แน่นอน แต่ไม่สามารถอ่านใจได้  ฉันมองไม่ออกเลยว่าเทคโนโลยีนี้จะมีประโยชน์อะไร นอกจากจะเป็นการทำลายโอกาสของชนกลุ่มน้อยในที่ทำงาน"</p>
<p>ผู้เข้าร่วมวิจัยยังกล่าวถึงวิธีรับมือกับ Emotion AI พวกเขาบอกว่าจะปฏิเสธที่จะทำงานในสถานที่ที่ใช้เทคโนโลยีนี้  (ซึ่งเป็นทางเลือกที่หลายคนไม่มี)  หรือ พยายามแสดงพฤติกรรมบางอย่างเพื่อให้ระบบปัญญาประดิษฐ์จับอารมณ์อ่านพวกเขาในแง่ดี  เพื่อปกป้องความเป็นส่วนตัวของตัวเอง</p>
<p>ตัวอย่างเช่น ผู้เข้าร่วมวิจัยคนหนึ่งกล่าวว่า "ฉันจะใช้พลังงานมหาศาลในการปิดบังตัวเองแม้ว่าจะอยู่คนเดียวในห้องทำงาน ซึ่งจะทำให้ฉันเสียสมาธิและไร้ประสิทธิภาพ"  สิ่งนี้ชี้ให้เห็นว่า การใช้ Emotion AI จะเพิ่มภาระทางอารมณ์ให้กับพนักงาน  ("ภาระทางอารมณ์" - emotional labor  หมายถึง การใช้พลังงานทางอารมณ์เพื่อให้บริการผู้อื่น เช่น พนักงานบริการยิ้มแย้มกับลูกค้า แม้จะรู้สึกเหนื่อยหรือไม่พอใจก็ตาม)</p>
<h2><span style="color:#3498db;">คุ้มค่ากับความเสี่ยงหรือไม่?</span></h2>
<p style="text-align: center;"><img alt="" src="https://live.staticflickr.com/65535/53612722154_3e6014837a_o_d.jpg" />
<span style="color:#f39c12;">ภาพประกอบสร้างจากเทคโนโลยี AI ของ Image Creator from Microsoft Designer</span></p>
<p>ผลการวิจัยชี้ให้เห็นว่า แม้ผู้สนับสนุน Emotion AI อ้างว่าเทคโนโลยีนี้จะช่วยแก้ปัญหาในที่ทำงาน แต่ในความเป็นจริงแล้ว ยิ่งกลับทำให้ปัญหาเดิมของพนักงานเลวร้ายลงไปอีก</p>
<p>แม้ว่า Emotion AI จะทำงานได้ตามที่อ้าง และวัดสิ่งที่มันอ้างว่าจะวัดได้ และแม้ว่าปัญหาเกี่ยวกับอคติจะได้รับการแก้ไขในอนาคต พนักงานก็ยังคงได้รับผลกระทบด้านลบอยู่ดี เช่น ภาระทางอารมณ์ที่เพิ่มขึ้นและการสูญเสียความเป็นส่วนตัว</p>
<p>หากเทคโนโลยีเหล่านี้ไม่ได้วัดสิ่งที่อ้างไว้หรือมีความลำเอียง บุคลากรก็จะอยู่ภายใต้การควบคุมของอัลกอริทึมที่ถือว่าถูกต้องและเชื่อถือได้ ทั้งที่ไม่เป็นเช่นนั้น พนักงานยังคงต้องใช้ความพยายามเพื่อลดโอกาสที่จะถูกอัลกอริทึมอ่านผิด หรือแสดงอารมณ์ที่อัลกอริทึมจะอ่านในแง่ดี</p>
<p>ไม่ว่าจะด้วยวิธีใด ระบบเหล่านี้ก็ทำหน้าที่คล้ายกับ "แพนติคอน" (panopticon)<span style="color:#c0392b;">*</span> ที่ทำลายความเป็นส่วนตัว สร้างความรู้สึกให้พนักงานเหมือนถูกจับตามมองอยู่ตลอดเวลา</p>
<p><span style="color:#c0392b;">*"แพนติคอน" (panopticon) เป็นเรือนจำที่ออกแบบโดยนักปรัชญาชาวอังกฤษ เจเรมี่ เบนทัม (Jeremy Bentham) มีลักษณะเป็นหอคอยอยู่กลางเรือนจำ นักโทษอยู่ในห้องขังโดยรอบ ผู้คุมสามารถมองเห็นนักโทษได้ทุกคนตลอดเวลา แต่ นักโทษไม่รู้ว่าตนเองถูกมองอยู่หรือไม่ ส่งผลให้เกิดสภาวะที่นักโทษรู้สึกเหมือนถูกจับตามองอยู่เสมอ</span></p>
<p><strong>ที่มา:</strong>
Emotion-tracking AI on the job: Workers fear being watched – and misunderstood (Nazanin Andalibi, StudyFinds, 6 March 2024) (https://studyfinds.org/emotion-tracking-ai-on-the-job/)</p>
<p> </p>
</div></div></div><div class="field field-name-field-variety field-type-taxonomy-term-reference field-label-hidden"><div class="field-items"><div class="field-item even"><a href="/category/%E0%B8%A3%E0%B8%B2%E0%B8%A2%E0%B8%87%E0%B8%B2%E0%B8%99%E0%B8%9E%E0%B8%B4%E0%B9%80%E0%B8%A8%E0%B8%A9" typeof="skos:Concept" property="rdfs:label skos:prefLabel" datatype="">รายงานพิเศษ[/url]</div></div></div><div class="field field-name-field-category field-type-taxonomy-term-reference field-label-hidden"><div class="field-items"><div class="field-item even"><a href="/category/%E0%B9%81%E0%B8%A3%E0%B8%87%E0%B8%87%E0%B8%B2%E0%B8%99" typeof="skos:Concept" property="rdfs:label skos:prefLabel" datatype="">แรงงาน[/url]</div><div class="field-item odd"><a href="/category/%E0%B8%95%E0%B9%88%E0%B8%B2%E0%B8%87%E0%B8%9B%E0%B8%A3%E0%B8%B0%E0%B9%80%E0%B8%97%E0%B8%A8" typeof="skos:Concept" property="rdfs:label skos:prefLabel" datatype="">ต่างประเทศ[/url]</div><div class="field-item even"><a href="/category/%E0%B9%84%E0%B8%AD%E0%B8%8B%E0%B8%B5%E0%B8%97%E0%B8%B5" typeof="skos:Concept" property="rdfs:label skos:prefLabel" datatype="">ไอซีที[/url]</div></div></div><div class="field field-name-field-tags field-type-taxonomy-term-reference field-label-hidden"><div class="field-items"><div class="field-item even"><a href="/category/ai" typeof="skos:Concept" property="rdfs:label skos:prefLabel" datatype="">AI[/url]</div><div class="field-item odd"><a href="/category/%E0%B8%9B%E0%B8%B1%E0%B8%8D%E0%B8%8D%E0%B8%B2%E0%B8%9B%E0%B8%A3%E0%B8%B0%E0%B8%94%E0%B8%B4%E0%B8%A9%E0%B8%90%E0%B9%8C" typeof="skos:Concept" property="rdfs:label skos:prefLabel" datatype="">ปัญญาประดิษฐ์[/url]</div><div class="field-item even"><a href="/category/%E0%B8%84%E0%B8%99%E0%B8%97%E0%B8%B3%E0%B8%87%E0%B8%B2%E0%B8%99%E0%B8%A3%E0%B9%88%E0%B8%A7%E0%B8%A1-ai" typeof="skos:Concept" property="rdfs:label skos:prefLabel" datatype="">คนทำงานร่วม AI[/url]</div><div class="field-item odd"><a href="/category/%E0%B8%81%E0%B8%B2%E0%B8%A3%E0%B8%AA%E0%B8%AD%E0%B8%94%E0%B8%AA%E0%B9%88%E0%B8%AD%E0%B8%87%E0%B8%9E%E0%B8%99%E0%B8%B1%E0%B8%81%E0%B8%87%E0%B8%B2%E0%B8%99" typeof="skos:Concept" property="rdfs:label skos:prefLabel" datatype="">การสอดส่องพนักงาน[/url]</div><div class="field-item even"><a href="/category/%E0%B8%81%E0%B8%B2%E0%B8%A3%E0%B8%AA%E0%B8%AD%E0%B8%94%E0%B8%AA%E0%B9%88%E0%B8%AD%E0%B8%87%E0%B9%83%E0%B8%99%E0%B8%97%E0%B8%B5%E0%B9%88%E0%B8%97%E0%B8%B3%E0%B8%87%E0%B8%B2%E0%B8%99" typeof="skos:Concept" property="rdfs:label skos:prefLabel" datatype="">การสอดส่องในที่ทำงาน[/url]</div><div class="field-item odd"><a href="/category/emotion-ai" typeof="skos:Concept" property="rdfs:label skos:prefLabel" datatype="">Emotion AI[/url]</div></div></div><div class="field field-name-field-promote-end field-type-text field-label-hidden"><div class="field-items"><div class="field-item even">ติดตามประชาไทอัพเดท ได้ที่เฟซบุ๊ก https://fb.me/prachatai : ทวิตเตอร์ https://twitter.com/prachatai : LINE ไอดี = @prachatai</div></div></div>
 

https://prachatai.com/journal/2024/03/108608