تقوم Meta باختبار التعرف على الوجه لمحاربة عمليات احتيال المشاهير

من المأمول أن تنتهي الأيام التي اضطر فيها توم هانكس إلى إصدار تحذيرات على إنستغرام بشأن مقاطع فيديو مزيفة خاصة بالذكاء الاصطناعي.

تعمل شركة Meta المالكة لفيسبوك وإنستغرام الآن على تقنيات التعرف على الوجه لمحاولة الحد من ارتفاع “عمليات احتيال المشاهير”، بالإضافة إلى مساعدة المستخدمين على استعادة حساباتهم بشكل أسرع.

أنظر أيضا:

يمكن استخدام نظارات Ray-Ban Meta Glasses لتعقب الغرباء من خلال التعرف على الوجه، وفقًا لطلاب جامعة هارفارد. وإليك كيفية حماية نفسك.

“نحن نختبر طريقة جديدة للكشف عن عمليات الاحتيال التي تستهدف المشاهير” كتب ميتا في مدونة نشرت يوم الاثنين. “إذا اشتبهت أنظمتنا في أن الإعلان قد يكون عملية احتيال تحتوي على صورة شخصية عامة معرضة لخطر الإغراء بالمشاهير، فسنحاول استخدام تقنية التعرف على الوجه لمقارنة الوجوه في الإعلان بصور الملف الشخصي للشخصية العامة على Facebook وInstagram. إذا أكدنا وجود تطابق وقررنا أن الإعلان عبارة عن عملية احتيال، فسنقوم بحظره على الفور، وسنقوم بحذف أي بيانات للوجه تم إنشاؤها من الإعلانات لهذه المقارنة لمرة واحدة، بغض النظر عما إذا كان نظامنا قد وجد تطابقًا أم لا. استخدامه لأي غرض آخر.”

سرعة الضوء ماشابل

ومضى المنشور ليقول إن Meta حققت نجاحًا في مراحل الاختبار المبكرة مع مجموعة صغيرة من المشاهير. “في الأسابيع المقبلة، سنبدأ في عرض إشعارات داخل التطبيق لمجموعة أكبر من الشخصيات العامة التي تأثرت بطعم المشاهير لإعلامهم بأننا نقوم بتسجيلهم في هذه الحماية. يمكن للشخصيات العامة المسجلة في هذه الحماية أن إلغاء الاشتراك في مركز حساباتهم في أي وقت.”

بالإضافة إلى مكافحة عمليات الاحتيال، أكدت Meta أنها تختبر أيضًا صور سيلفي فيديو كوسيلة للمساعدة في استعادة الوصول لأي شخص لديه حساب مخترق، وليس فقط الأشخاص المشهورين. وكتب ميتا: “سيقوم المستخدم بتحميل صورة شخصية بالفيديو وسنستخدم تقنية التعرف على الوجه لمقارنة الصورة الشخصية بصور الملف الشخصي على الحساب الذي يحاول الوصول إليه”. “يشبه هذا أدوات التحقق من الهوية التي قد تستخدمها بالفعل لفتح هاتفك أو الوصول إلى تطبيقات أخرى.”

وأكدت الشركة أن بيانات التعرف على الوجه يتم حذفها فورًا بعد إجراء المقارنة.



مصدر

LEAVE A REPLY

Please enter your comment!
Please enter your name here