เราจะใช้แว่นตา AR ของ Apple อย่างไรและมีส่วนต่อประสานกับผู้ใช้อย่างไร

เราจะใช้แว่นตา AR ของ Apple อย่างไรและมีส่วนต่อประสานกับผู้ใช้อย่างไร

เมื่อพวกเขาปรากฏขึ้น Apple จะต้องการทำให้แน่ใจว่าประสบการณ์การสวมแว่นตาของ Apple นั้นเป็นธรรมชาติและหลีกเลี่ยงไม่ได้เช่นเดียวกับการใช้ผลิตภัณฑ์ Apple อื่นๆ และเรากำลังเริ่มที่จะถึงจุดที่เราสามารถคิดได้ว่าสิ่งเหล่านี้จะดำเนินไปอย่างไร

สิ่งที่พวกเขาไม่ใช่

เอาของมาฝากกันก่อน แว่นตา AR ของ Apple ไม่เคยเป็นอุปกรณ์ที่คุณควบคุมด้วยรีโมทที่ซับซ้อน แม้กระทั่ง iPhone

Apple ต้องการให้ประสบการณ์ผู้ใช้ราบรื่นที่สุดเท่าที่จะเป็นไปได้ และจะทำซ้ำและปรับปรุงประสบการณ์นั้นเมื่อเวลาผ่านไป ทุกอย่างในประวัติศาสตร์ของ Apple บอกเราว่าจะต้องการสร้างอินเทอร์เฟซที่ให้การเชื่อมต่อที่เป็นธรรมชาติ

คุณจะต้องสร้างภาษาใหม่สำหรับการออกแบบส่วนต่อประสานกับมนุษย์ เป็นไปได้ว่าแผนสำหรับ Apple Glass คือการสร้างอินเทอร์เฟซที่เป็นมนุษย์มากที่สุด โดยมีคุณอยู่ที่ศูนย์กลางของระบบ

แอปเปิ้ลคิดอย่างไร

สำหรับการรีวิวนี้ ฉันได้รับคำแนะนำจากความคิดของ Apple และเรื่องราวซุบซิบล่าสุด เพื่อยกตัวอย่าง เมื่อเร็ว ๆ นี้มีการยืนยันว่าแว่นตาเหล่านี้จะใส่กล้องหลายตัวและจะถูกควบคุมในส่วนเดียวด้วยท่าทางและการเคลื่อนไหว

นี้ไปได้อย่างไร

เพื่อให้เข้าใจว่า Apple เข้าใกล้การออกแบบ UI อย่างไร ให้พิจารณา 3 สิ่ง:

พิจารณาแคตตาล็อกการออกแบบการช่วยสำหรับการเข้าถึงที่กว้างขวางของ Apple และการทำงานที่กว้างขวางเท่าๆ กันกับ Siri ซึ่งทั้งสองอย่างนี้มีการปรับปรุงในวงกว้างสำหรับผู้ใช้จำนวนมาก

สร้างอนาคตของมนุษย์

อินเทอร์เฟซผู้ใช้เหล่านี้สะท้อนถึงความมุ่งมั่นของ Apple ในการสร้างสรรค์วิธีการทำงานด้วยเทคโนโลยีที่ให้ความรู้สึกเป็นธรรมชาติอย่างแท้จริง Jony Ive อดีตดีไซเนอร์มักพูดถึงการแสวงหาความหายนะของบริษัทของเขา

แม้ว่าบริษัทจะไม่ได้ทำให้ถูกต้อง (เช่น Touch Bar) บริษัทจะทำซ้ำและปรับปรุงระบบจนกว่าจะถึงเวลาที่สร้างอินเทอร์เฟซที่เรียบง่ายจนผู้ใช้จะยึดติดกับมัน

การค้นหานี้หมายความว่า Apple จะพยายามสวมแว่น คุณไม่ต้องการสร้างผลิตภัณฑ์ที่ต้องการวุฒิทางวิศวกรรม คุณจะไม่ต้องการสร้างแกดเจ็ตด้วย

คุณต้องการให้ประสบการณ์ของผู้ใช้ราบรื่น โปร่งใส ราวกับว่าสิ่งต่างๆ เป็นเช่นนี้มาโดยตลอดในทุกสถานการณ์

แล้วอะไรที่หลีกเลี่ยงไม่ได้ในแว่นล่ะ?

ฉันคิดว่าความรู้สึกที่ลึกซึ้งของจุดประสงค์ที่ไม่หยุดยั้งนั้นหมายความว่าคุณเริ่มต้นด้วยสิ่งที่ชัดเจนและสร้างจากประสบการณ์พื้นฐานนั้น แล้วเวลาใช้ pince-nez ธรรมดาต้องทำอย่างไร?

ฉันคิดว่าพวกเราส่วนใหญ่ดู

เราใช้ตา ขยับมัน กะพริบตา มองและจดจ่อกับสิ่งต่าง ๆ เรามองอย่างใกล้ชิดและมองออกไป อ่าน. มันดู เราให้ความสนใจ บางครั้งเราก็ยังชอบที่จะดูเฉื่อยชาในอวกาศและรับรู้ถึงเส้นตายอื่นที่ผ่านไป

นี่คือสิ่งที่เราทำ เรายังใช้แว่นตาเพื่อปรับปรุงการมองเห็น ซึ่งดูเหมือนว่าจะเป็นไปได้ในการสร้างสรรค์เหล่านี้

ดังนั้นคุณจะแปลการกระทำที่คุ้นเคยเหล่านี้เป็นส่วนต่อประสานกับผู้ใช้สำหรับแว่นตาได้อย่างไร

นี่คือสมมติฐานพื้นฐานบางประการ:

พวกเขาทำอะไรได้บ้าง?

ลองนึกภาพว่าคุณกำลังพักผ่อนอยู่ในประเทศที่มีภาษาอื่น คุณมองไปที่ป้ายในระยะไกล

เซ็นเซอร์ในแว่นตาจะระบุทิศทางและโฟกัสของการจ้องมองของคุณ ในขณะที่เซ็นเซอร์ที่หันออกด้านนอกจะสแกนวัตถุนั้นและพยายามยกระดับประสบการณ์การรับชมของคุณ ในกรณีของสัญลักษณ์นี้ แว่นตาสามารถซูมเข้าเพื่อทำให้สัญลักษณ์ชัดเจนขึ้นและอาจแปลคำที่อยู่บนนั้นโดยอัตโนมัติ การแปลนี้สามารถจัดเตรียมเป็นรูปแบบการซ้อนทับบนเลนส์ซึ่งคุณสามารถมองเห็นได้เท่านั้น

แกะสิ่งที่เกิดขึ้นตลอดงานนี้ และคุณจะเห็นว่าประกอบด้วยหลายกระบวนการ:

การดำเนินการทั้งหมดเหล่านี้ได้รับการสนับสนุนโดยการเรียนรู้ด้วยเครื่องจำนวนมากและปัญญาภาพบนอุปกรณ์ ซึ่งหมายความว่าอาจมีการติดตั้งโปรเซสเซอร์แบบฝังในอุปกรณ์เหล่านี้

นี่เป็นเพียงหนึ่งกรณีของสิ่งที่สามารถเกิดขึ้นได้

งานเหล่านี้จะดำเนินการอย่างไร? อัตโนมัติหรือตามคำสั่ง?

วิธีการสั่งซื้อแว่นตา?

อันที่จริงเราไม่ได้ขอแว่น ส่วนใหญ่แล้ว เราเพียงแค่สวมแว่นตาหรือแว่นตาแล้วถอดออก

อินเทอร์เฟซการควบคุมอยู่ที่การแลกเปลี่ยนที่มีอยู่อยู่ที่ไหน

แม้ว่าจะดูเหมือนหลีกเลี่ยงไม่ได้ที่คำสั่งบางอย่างจะดำเนินการโดยใช้ลูกหลานของแว่นตา (เช่นลูกหลานของ AirPods) คุณสามารถเริ่มคำสั่งด้วยวิธีนี้ได้กี่คำสั่ง? ฉันคิดว่าไม่มาก ซึ่งแนะนำการดำเนินการแก้ไขบางอย่าง

ความจำเป็นในการเปลี่ยนแปลงการกระทำจะแนะนำอินเทอร์เฟซการควบคุมเสริม รวมถึงทิศทางของดวงตา การกะพริบ ท่าทาง เสียง และการสัมผัส เนื่องจากแต่ละการโต้ตอบเหล่านี้สามารถเพิ่มความซับซ้อนให้กับสิ่งที่เกิดขึ้น ผู้ใช้จึงจำเป็นต้องมีวิธีในการติดตามคำสั่งซื้อที่พวกเขาทำ มันสามารถเคลื่อนผ่านส่วนต่อประสานการควบคุมที่สมเหตุสมผล เช่น ล้อคลิกเสมือน ที่ติดตั้งอยู่ในเลนส์

ในการใช้งาน คุณสามารถแตะที่แว่นของคุณสองสามครั้งเพื่อเข้าสู่โหมดควบคุม เล็งหรือมองที่วัตถุเพื่อโฟกัส จากนั้นเลื่อนผ่านการควบคุมฟรีโดยใช้ปุ่มหมุนคลิกบนเลนส์ด้วยการแตะ ท่าทางหรือคำสั่ง การเคลื่อนไหวของดวงตา

ระบบประเภทนี้จะยอมรับคำสั่งที่ซับซ้อน

อีกวิธีหนึ่งคือการใช้ท่าทางสัมผัส กำหมัด ชี้ เปิดมือ ปัดมือซ้าย ปัดขวา ทั้งหมดนี้เป็นเสียงส่วนน้อย และสอดคล้องกับงานที่มีอยู่ของ Apple และกรอบงาน Apple Vision

วิธีการทั้งหมดเหล่านี้ (เพียงอย่างเดียวหรือรวมกัน) จะมอบอินเทอร์เฟซผู้ใช้ที่ซับซ้อนซึ่งนักพัฒนาจำเป็นต้องสร้างแอปพลิเคชันที่ซับซ้อนสำหรับอุปกรณ์เหล่านี้

ไม่น่าแปลกใจที่ Apple ต้องการให้แว่นตาเข้ากันได้กับแอพของบุคคลที่สาม

ความต้องการนี้หมายความว่าคุณต้องพยายามจัดหาอินเทอร์เฟซผู้ใช้ที่ใช้งานได้เช่นเดียวกับการใช้เมาส์และคีย์บอร์ดหรือมัลติทัช ฉันคิดว่า Apple ต้องการสร้างโอกาสแพลตฟอร์มด้วยสิ่งเหล่านี้ (เมื่อเร็ว ๆ นี้มีการอ้างว่าอุปกรณ์เหล่านี้เป็นอุปกรณ์แบบสแตนด์อโลนที่ไม่ต้องใช้ iPhone) ซึ่งหมายความว่าควรมีการควบคุมขั้นสูง

โดยเนื้อแท้แล้ว อินเทอร์เฟซผู้ใช้ควรจะหลีกเลี่ยงไม่ได้เสียจนเมื่อคุณเริ่มใช้งาน คุณจะลืมอย่างรวดเร็วว่าคุณเคยใช้ชีวิตโดยปราศจากมันมาอย่างไร

เป็นเรื่องที่น่าสนใจที่จะเห็นว่านักออกแบบ UI ของ Apple จัดการกับความท้าทายเหล่านี้อย่างไรเมื่อโซลูชันใหม่เหล่านี้คาดว่าจะเปิดตัวในปี XNUMX

ติดตามฉันทาง Twitter หรือเข้าร่วมกับฉันที่ AppleHolic Bar & Grill และ Apple Discussion Sets บน MeWe

ลิขสิทธิ์ © สองพันยี่สิบเอ็ด IDG Communications, Inc.