إذا قمت بإجراء بحث سريع عبر الإنترنت عن Ray-Ban Meta Smart Glasses الآن، فستجد أن هذه النظارات يتم تسويقها في الغالب لقدراتها على التقاط الصور بسرعة وبثها المباشر.
ومع ذلك، في حدث Meta Connect 2024 يوم الأربعاء، لم يكن لدى مؤسس Meta والرئيس التنفيذي مارك زوكربيرج الكثير ليقوله عن الصور ومقاطع الفيديو خلال قسم نظارات Ray-Ban Meta الذكية في العرض التقديمي.
كل ما تم الإعلان عنه في Meta Connect 2024
في الواقع، قدم زوكربيرج نظارات Ray-Ban Meta الذكية في المقام الأول كجهاز ذكاء اصطناعي.
وقال زوكربيرج “النظارات هي فئة جديدة من أجهزة الذكاء الاصطناعي”، مشيرا إلى أن شركته لحقت للتو بطلب المستهلكين على نظارات ميتا الذكية بعد أن ارتفعت المبيعات بشكل أسرع مما كان متوقعا.
باستثناء إصدار جديد محدود من نظارات Ray-Ban Meta الذكية بإطارات شفافة، لم تكن هناك أي إعلانات عن أجهزة نظارات ذكية جديدة من Meta.
حقوق النشر: ميتا
ومع ذلك، فقد شارك زوكربيرج العديد من الميزات الجديدة التي قال إنها ستأتي إلى نظارات Meta الذكية في مجموعة من التحديثات التي سيتم إصدارها خلال الشهرين المقبلين – وكلها مرتبطة بالذكاء الاصطناعي.
تم دمج Meta AI بالفعل في نظارات Ray-Ban Meta الذكية بنفس الطريقة التي تم بها دمج المساعدين الصوتيين للشركات الأخرى في أجهزتهم. ولكن وفقًا لزوكربيرج، فإن التحديثات الجديدة ستجعل هذه التفاعلات “أكثر طبيعية وتفاعلية”.
سرعة الضوء القابلة للقياس
سرعة الضوء القابلة للقياس
“مرحبًا ميتا” بدلًا من “انظر وأخبرني”.
على سبيل المثال، يتعين على المستخدمين حاليًا توجيه نظارة Ray-Ban Meta الذكية الخاصة بهم بعبارة “انظر وأخبرني” عندما يكون لديهم سؤال. وقد أظهر عرض زوكربيرج التوضيحي كيف لن يضطر المستخدمون إلى القيام بذلك بعد الآن. سيحتاج المستخدمون فقط إلى تنشيط الميزة باستخدام عبارة “Hey Meta” ثم طرح سؤالهم. سيعرف Meta AI تلقائيًا أن السؤال يتعلق بأي شيء ينظر إليه المستخدم من خلال النظارات.
علاوة على ذلك، بعد عبارة “Hey Meta” الأولية، لن يتطلب Meta AI من المستخدمين بدء كل موجه بهذه العبارة. وسيتمكن Meta AI من الاستمرار في التفاعل مع المستخدمين.
الترجمة المباشرة على نظارات Ray-Ban Meta الذكية
الميزة الأخيرة تشبه ما تم رؤيته في النظارات الذكية الأخرى عندما يتعلق الأمر بالترجمة. يمكن للمستخدم الوصول إلى ترجمات صوتية مباشرة في الوقت الفعلي للغة أخرى من خلال النظارات عند التحدث مع شخص آخر. يبدو أن العرض التوضيحي يعمل بشكل مثالي تقريبًا في Meta Connect عند الترجمة من الإسبانية إلى الإنجليزية ومن الإنجليزية إلى الإسبانية.
حقوق النشر: ميتا
مطالبات الذكاء الاصطناعي المتعددة الوسائط
وقد شرح زوكربيرج ميزة الفيديو المتعدد الوسائط للذكاء الاصطناعي من خلال عرض توضيحي يظهر فيه مستخدم وهو يجرب الملابس التي يريد ارتدائها. ومن خلال هذه الميزة، تمكنت Meta AI من تقديم نصائح واقتراحات متعلقة بالموضة بناءً على ملابس المستخدم وسؤاله المحدد عنها.
ستتمكن نظارات Ray-Ban Meta الذكية قريبًا من تذكر الأشياء تلقائيًا للمستخدمين. تضمن المثال المعروض في Meta Connect استدعاء Meta AI لرقم موقف السيارات حيث ركن المستخدم سيارته. لم يكن على المستخدم مطالبة Meta AI بذلك. بدا الأمر طبيعيًا أنه يتذكر الرقم لأن المستخدم شاهده من خلال النظارات.
حقوق النشر: ميتا
وبالإضافة إلى هذه الميزة، هناك قدرة مماثلة للذكاء الاصطناعي Meta AI حيث سيتمكن مستخدمو نظارات Ray-Ban Meta الذكية قريبًا من النظر إلى منشور أو إعلان وطلب من النظارات الذكية الاتصال برقم الهاتف أو مسح رمز الاستجابة السريعة ذي الصلة. كما يمكن للنظارات أيضًا تذكر هذه الأشياء تلقائيًا إذا أراد المستخدم العودة إلى ما شاهده سابقًا من خلال النظارات في وقت لاحق.
وتتضمن التحديثات الأخرى القادمة إلى نظارات Ray-Ban Meta الذكية القدرة على التحكم الصوتي في Spotify وAmazon Music من خلال الجهاز بالإضافة إلى التكاملات الجديدة مع تطبيقات مثل Audible وiHeartRadio.
شراكة مع Be My Eyes للمستخدمين المكفوفين وضعاف البصر
حقوق النشر: ميتا
كما أعلنت شركة ميتا عن شراكة مع تطبيق Be My Eyes، وهو تطبيق جوال يربط بين المكفوفين وضعاف البصر والمتطوعين عبر الفيديو المباشر للتحدث عن ما هو أمامهم. وسوف يعمل التطبيق مباشرة من خلال نظارات راي بان ميتا الذكية، وسيتمكن المتطوعون من الرؤية من خلال نظارات المستخدم من أجل تقديم المساعدة.