Microsoft ย้อนกลับการสแกนการจดจำใบหน้า แต่คำถามใหญ่ยังคงอยู่

Microsoft ย้อนกลับการสแกนการจดจำใบหน้า แต่คำถามใหญ่ยังคงอยู่

Microsoft ปฏิเสธการสนับสนุนสาธารณะสำหรับคุณลักษณะบางอย่างที่ใช้ AI รวมถึงการจดจำใบหน้า และรับทราบปัญหาการเลือกปฏิบัติและความถูกต้องที่ข้อเสนอเหล่านี้สร้างขึ้น แต่บริษัทมีเวลาหลายปีในการแก้ไขปัญหาและไม่สามารถทำได้ มันเหมือนกับผู้ผลิตรถยนต์ที่เรียกคืนรถแทนที่จะซ่อมมัน

แม้จะกลัวว่าเทคโนโลยีการจดจำใบหน้าอาจเป็นการเลือกปฏิบัติ แต่ปัญหาที่แท้จริงคือผลลัพธ์ที่ได้นั้นไม่แม่นยำ (อย่างไรก็ตาม อาร์กิวเมนต์การเลือกปฏิบัติมีบทบาทเนื่องจากสมมติฐานที่นักพัฒนาของ Microsoft ตั้งขึ้นเมื่อสร้างแอปเหล่านี้)

เริ่มจากสิ่งที่ Microsoft ได้ทำและพูดกัน Sarah Bird ผู้จัดการผลิตภัณฑ์อาวุโสของกลุ่ม Azure AI ของ Microsoft สรุปผลตอบรับเมื่อเดือนที่แล้วในบล็อกโพสต์ของ Microsoft

“ตั้งแต่วันนี้ (21 มิถุนายน) ลูกค้าใหม่ต้องร้องขอการเข้าถึงเพื่อใช้การดำเนินการจดจำใบหน้าใน Azure Face API, Computer Vision และ Video Indexer ลูกค้าปัจจุบันมีเวลาหนึ่งปีในการขอและได้รับการอนุมัติสำหรับการเข้าถึงบริการจดจำใบหน้าอย่างต่อเนื่องตามกรณีการใช้งานที่มีให้ ด้วยการแนะนำการเข้าถึงแบบจำกัด เรากำลังเพิ่มระดับการควบคุมเพิ่มเติมให้กับการใช้และการใช้งานการจดจำใบหน้าเพื่อให้แน่ใจว่าการใช้บริการเหล่านี้สอดคล้องกับมาตรฐาน AI ที่รับผิดชอบของ Microsoft และก่อให้เกิดประโยชน์ที่มีมูลค่าสูงต่อผู้ใช้ ปลายและสังคม ซึ่งรวมถึงการแนะนำข้อกำหนดการใช้งานและสิทธิ์ของลูกค้าในการเข้าถึงบริการเหล่านี้

“ความสามารถในการตรวจจับใบหน้า รวมถึงการตรวจจับใบหน้าเบลอ การเปิดรับแสง แว่นตา ตำแหน่งศีรษะ จุดสังเกต เสียงรบกวน การบดบัง และการตรวจจับกรอบขอบเขต จะยังคงใช้งานได้ทั่วไปและไม่จำเป็นต้องมีแอป”

ดูประโยคที่สองนี้ โดยที่ Bird เน้นย้ำห่วงพิเศษนี้เพื่อให้ผู้ใช้ข้ามผ่าน "เพื่อให้แน่ใจว่าการใช้บริการเหล่านี้สอดคล้องกับมาตรฐาน AI ที่รับผิดชอบของ Microsoft และช่วยให้ผู้ใช้ปลายทางตระหนักถึงคุณค่าสูงและผลประโยชน์ทางสังคม"

ฟังดูดี แต่นั่นคือสิ่งที่การเปลี่ยนแปลงนี้ทำจริงหรือ หรือ Microsoft จะไว้ใจมันเพื่อป้องกันไม่ให้ผู้คนใช้แอพที่มีความไม่ถูกต้องมากที่สุด?

สถานการณ์หนึ่งที่ Microsoft ได้พูดคุยกันเกี่ยวกับการรู้จำเสียง ซึ่งพบว่า "เทคโนโลยีการแปลงคำพูดเป็นข้อความในอุตสาหกรรมเทคโนโลยีสร้างอัตราข้อผิดพลาดสำหรับสมาชิกของชุมชนคนผิวดำและชุมชนแอฟริกันอเมริกันบางแห่ง ซึ่งสูงกว่าผู้ใช้ผิวขาวเกือบสองเท่า นาตาชา แครมป์ตัน กล่าว ผู้อำนวยการที่รับผิดชอบด้าน AI ของ Microsoft "เราถอยหลังหนึ่งก้าว ทบทวนผลการศึกษา และพบว่าการทดสอบก่อนเผยแพร่ของเราไม่ได้สะท้อนถึงความหลากหลายของคำพูดในหมู่ผู้คนจากภูมิหลังและจากภูมิภาคที่แตกต่างกันได้อย่างน่าพอใจ"

ปัญหาอีกประการหนึ่งที่ Microsoft ระบุคือผู้คนจากทุกสาขาอาชีพมักจะพูดต่างกันในการตั้งค่าที่เป็นทางการและไม่เป็นทางการ โอวตกลง? นักพัฒนาไม่ทราบเรื่องนี้มาก่อนหรือไม่? ฉันพนันได้เลยว่าพวกเขาทำ แต่พวกเขาไม่ได้คิดถึงความหมายของการไม่ทำอะไรเลย

วิธีหนึ่งในการแก้ไขปัญหานี้คือการตรวจสอบกระบวนการรวบรวมข้อมูลอีกครั้ง โดยธรรมชาติแล้ว คนที่บันทึกไว้สำหรับการวิเคราะห์เสียงจะค่อนข้างประหม่าและมีแนวโน้มที่จะพูดในลักษณะที่เข้มงวดและเข้มงวด วิธีหนึ่งคือทำเซสชันการบันทึกให้นานขึ้นในสภาพแวดล้อมที่ผ่อนคลายมากที่สุด หลังจากผ่านไปสองสามชั่วโมง บางคนอาจลืมว่ากำลังถูกบันทึกและตกอยู่ในรูปแบบการสนทนาแบบเป็นกันเอง

ฉันเคยเห็นมันเล่นกับวิธีที่ผู้คนโต้ตอบกับการรู้จำเสียง ในตอนแรกพวกเขาจะพูดช้าและมีแนวโน้มที่จะออกเสียงมากเกินไป เมื่อเวลาผ่านไป พวกเขาก็จะค่อยๆ ตกอยู่ในโหมดที่ฉันเรียกว่า "สตาร์เทรค" และพูดคุยกับบุคคลอื่นเหมือนกับที่พวกเขาทำ

ปัญหาที่คล้ายกันถูกค้นพบด้วยความพยายามในการตรวจจับอารมณ์

Bird's Plus: « Dans un autre change, nous retirens les capacités d'analyse facee qui เสแสร้ง déduire des états émotionnels et des คุณลักษณะ d'identité tels que le sexe, l'âge, le sourire, les poils du visage, les cheveux et the แต่งหน้า. เราร่วมมือกับนักวิจัยทั้งภายในและภายนอกเพื่อทำความเข้าใจข้อจำกัดและประโยชน์ที่อาจเกิดขึ้นของเทคโนโลยีนี้ และสำรวจข้อดีและข้อเสีย ในกรณีของการจำแนกอารมณ์โดยเฉพาะ ความพยายามเหล่านี้ทำให้เกิดคำถามสำคัญเกี่ยวกับการรักษาความลับ การขาดความเห็นพ้องต้องกันในคำจำกัดความของอารมณ์ และไม่สามารถสรุปความเชื่อมโยงระหว่างการแสดงออกทางสีหน้าและสถานะทางอารมณ์ในกรณีการใช้งาน ภูมิภาค และข้อมูลประชากร - การเข้าถึง API ของความสามารถที่ทำนายคุณลักษณะที่ละเอียดอ่อนยังเปิดช่องทางต่างๆ มากมายที่สามารถนำมาใช้ในทางที่ผิด รวมถึงการทำให้ผู้คนถูกเหมารวม การเลือกปฏิบัติ หรือการปฏิเสธบริการอย่างไม่ยุติธรรม เพื่อลดความเสี่ยงเหล่านี้ เราได้เลือกที่จะไม่สนับสนุนระบบที่ใช้งานทั่วไปใน Face API ที่พยายามอนุมานสถานะทางอารมณ์ เพศ อายุ รอยยิ้ม หนวดเครา ผม และการแต่งหน้า การตรวจหาแอตทริบิวต์เหล่านี้จะไม่สามารถใช้งานได้อีกต่อไปสำหรับลูกค้าใหม่ตั้งแต่วันที่ 21 มิถุนายน 2022 และลูกค้าปัจจุบันมีเวลาจนถึงวันที่ 30 มิถุนายน 2023 ในการหยุดใช้แอตทริบิวต์เหล่านี้ก่อนที่จะเลิกใช้

เมื่อพูดถึงการตรวจจับอารมณ์ การวิเคราะห์ใบหน้าในอดีตแสดงให้เห็นว่ามีความแม่นยำน้อยกว่าการวิเคราะห์ด้วยเสียงธรรมดามาก การรู้จำอารมณ์ด้วยเสียงได้รับการพิสูจน์แล้วว่ามีประสิทธิภาพมากในแอปพลิเคชันคอลเซ็นเตอร์ ซึ่งลูกค้าที่ดูโกรธจัดสามารถโอนไปยังหัวหน้างานระดับสูงได้ทันที

ในระดับหนึ่ง วิธีนี้ช่วยให้ Microsoft เข้าใจว่าต้องใช้ข้อมูลอย่างไรจึงจำเป็นต้องจำกัด ในสถานการณ์สมมติของศูนย์บริการ หากซอฟต์แวร์ผิดพลาดและลูกค้าไม่ได้โกรธจริงๆ ก็ไม่เกิดอันตรายขึ้น หัวหน้างานก็วางสายตามปกติ หมายเหตุ: การตรวจจับอารมณ์ด้วยเสียงทั่วไปเพียงอย่างเดียวที่ฉันได้เห็นคือเมื่อลูกค้าโกรธที่เครือข่ายโทรศัพท์และไม่สามารถเข้าใจประโยคง่ายๆ ได้ ซอฟต์แวร์คิดว่าลูกค้าโกรธบริษัท ความผิดพลาดที่สมเหตุสมผล

แต่อีกครั้งหากซอฟต์แวร์ไม่ดีก็ไม่เกิดอันตราย

Bird ตั้งข้อสังเกตว่ากรณีการใช้งานบางกรณียังคงสามารถพึ่งพาฟังก์ชัน AI เหล่านี้ได้อย่างมีความรับผิดชอบ "ขณะนี้ลูกค้า Azure Cognitive Services สามารถใช้ประโยชน์จากชุด Fairlearn แบบโอเพ่นซอร์สของ Microsoft และ Fairness Dashboard เพื่อวัดความเป็นธรรมของอัลกอริธึมการตรวจสอบใบหน้าของ Microsoft จากข้อมูลของตนเอง ช่วยให้พวกเขาสามารถระบุและแก้ไขปัญหาความเป็นธรรมที่อาจเกิดขึ้น ซึ่งอาจส่งผลกระทบต่อกลุ่มประชากรที่แตกต่างกันเร็วกว่าที่พวกเขาปรับใช้" เทคโนโลยีของพวกเขา

เบิร์ดยังกล่าวอีกว่าปัญหาทางเทคนิคส่งผลต่อความไม่ถูกต้องบางประการ "ในขณะที่ทำงานร่วมกับลูกค้าที่ใช้บริการ Face ของเรา เรายังตระหนักด้วยว่าข้อผิดพลาดบางประการที่เริ่มแรกเกิดจากปัญหาด้านความเป็นธรรมนั้นเกิดจากคุณภาพของภาพที่ไม่ดี หากภาพที่มีคนส่งมามืดเกินไปหรือเบลอเกินไป โมเดลอาจไม่สามารถจับคู่ได้อย่างถูกต้อง เรา รับรู้ว่าคุณภาพของภาพที่ไม่ดีนี้อาจกระจุกตัวอยู่ในกลุ่มประชากรอย่างไม่ยุติธรรม

ระหว่างกลุ่มประชากร? นั่นไม่ใช่ทุกคน เนื่องจากทุกคนอยู่ในกลุ่มประชากรกลุ่มใดกลุ่มหนึ่ง ฟังดูเหมือนพูดไม่สุภาพว่าคนผิวขาวอาจมีฟังก์ชันการจับคู่ที่ไม่ดี นี่คือสาเหตุที่การใช้เครื่องมือเหล่านี้โดยหน่วยงานบังคับใช้กฎหมายจึงมีปัญหา คำถามสำคัญสำหรับไอที: ผลที่ตามมาหากซอฟต์แวร์ผิดพลาดคืออะไร? ซอฟต์แวร์เป็นหนึ่งใน 50 เครื่องมือที่ใช้หรืออิงจากซอฟต์แวร์เพียงอย่างเดียวหรือไม่?

Microsoft กล่าวว่ากำลังแก้ไขปัญหานี้ด้วยเครื่องมือใหม่ “นั่นคือเหตุผลที่ Microsoft นำเสนอ API คุณภาพการจดจำใหม่ให้กับลูกค้า ซึ่งจะแจ้งปัญหาเกี่ยวกับแสง ความเบลอ การบดบัง หรือมุมศีรษะในภาพที่ส่งมาเพื่อตรวจสอบใบหน้า” Bird กล่าว "Microsoft ยังมีแอปอ้างอิงที่ให้คำแนะนำแบบเรียลไทม์เพื่อช่วยให้ผู้ใช้ถ่ายภาพคุณภาพสูงขึ้นซึ่งมีแนวโน้มที่จะให้ผลลัพธ์ที่แม่นยำยิ่งขึ้น"

ในการให้สัมภาษณ์กับ The New York Times Crampton ตั้งข้อสังเกตว่าปัญหาอีกประการหนึ่งคือ "สิ่งที่เรียกว่าตัวแยกประเภทเพศของระบบนั้นเป็นไบนารี 'และนั่นไม่สอดคล้องกับค่านิยมของเรา'"

กล่าวโดยย่อ เขากล่าวว่า แม้ว่าระบบจะไม่ได้คิดเพียงในแง่ของผู้ชายและผู้หญิงเท่านั้น แต่ก็ไม่สามารถระบุบุคคลที่ระบุตัวตนด้วยวิธีอื่นได้ง่ายๆ ในกรณีนี้ Microsoft เลือกที่จะหยุดพยายามเดาเพศ ซึ่งอาจเป็นทางเลือกที่เหมาะสม

ลิขสิทธิ์ © 2022 IDG Communications, Inc.