كيفية التعرف على مقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي

نأسف للإحباط، ولكن إذا كنت تبحث عن قائمة سريعة بالطرق التي يمكن التعرف عليها بسهولة والمضمونة لاكتشاف مقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي، فلن تجدها هنا. لقد ولت أيام الذكاء الاصطناعي ويل سميث أكل السباغيتي بشكل بشع. لدينا الآن أدوات يمكنها إنشاء مقاطع فيديو مقنعة وواقعية ببضع نقرات.

في الوقت الحالي، لا تزال مقاطع الفيديو التي يتم إنشاؤها بواسطة الذكاء الاصطناعي طريقة ناشئة نسبيًا مقارنة بالنصوص والصور والصوت التي يتم إنشاؤها بواسطة الذكاء الاصطناعي، لأن الحصول على جميع التفاصيل بشكل صحيح يمثل تحديًا يتطلب الكثير من البيانات عالية الجودة. وقال سيوي ليو، أستاذ علوم الكمبيوتر والهندسة في جامعة بافالو بجامعة ولاية نيويورك: “لكن لا توجد عقبة أساسية أمام الحصول على بيانات ذات جودة أعلى”.

وهذا يعني أنه يمكنك أن تتوقع أن تتحسن مقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي، في وقت قريب جدًا، والتخلص من التحف الواضحة – العيوب أو عدم الدقة – مثل الوجوه المتحولة والكائنات المتغيرة الشكل التي تميز إبداعات الذكاء الاصطناعي الحالية. يكمن مفتاح تحديد مقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي (أو أي طريقة للذكاء الاصطناعي) في معرفة القراءة والكتابة للذكاء الاصطناعي. “فهم ذلك [AI technologies] وقال ليو، وهو مدير مختبر الطب الشرعي للوسائط في جامعة UB: “إن الذكاء الاصطناعي ينمو، ووجود هذه الفكرة الأساسية المتمثلة في أن “الشيء الذي أرى أنه يمكن إنشاؤه بواسطة الذكاء الاصطناعي” أكثر أهمية من الإشارات الفردية، على سبيل المثال”.

يتطلب التنقل عبر الويب المليء بالذكاء الاصطناعي استخدام حكمك الجيد عبر الإنترنت للتعرف على الوقت الذي قد يكون فيه شيء ما معطلاً. إنه أفضل دفاع لك ضد التعرض للخداع من خلال التزييف العميق للذكاء الاصطناعي، أو المعلومات المضللة، أو مجرد الرسائل غير المرغوب فيها منخفضة الجودة. إنها مهارة يصعب تطويرها، لأن كل جانب من جوانب عالم الإنترنت يحاربها في محاولة لجذب انتباهك. لكن والخبر السار هو أنه من الممكن ضبط غرائز الكشف عن الذكاء الاصطناعي لديك.

“بالدراسة [AI-generated images]وقال نيجار كمالي، عالم أبحاث الذكاء الاصطناعي في كلية كيلوج للإدارة بجامعة نورث وسترن، والذي شارك في تأليف بحث: “نعتقد أن الناس يمكنهم تحسين معرفتهم بالذكاء الاصطناعي”. مرشد لتحديد الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي. “حتى لو لم أرى أي قطع أثرية [indicating AI-generation]وأضاف كمالي، الذي درس الآلاف من الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي: “يفكر عقلي على الفور، أوه، هناك شيء ما معطل”. “حتى لو لم أجد القطعة الأثرية، لا أستطيع أن أقول على وجه اليقين أنها حقيقية، وهذا ما نريد.”

ما الذي يجب البحث عنه: مقاطع الفيديو المحتالة مقابل مقاطع الفيديو التي تحول النص إلى صورة

قبل أن نتمكن من تحديد مقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي، علينا أن نميز بين الأنواع المختلفة. تنقسم مقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي عمومًا إلى فئتين مختلفتين: مقاطع الفيديو المحتالة ومقاطع الفيديو التي تم إنشاؤها بواسطة نموذج نشر النص إلى الصورة.

فيديوهات الدجال

هذه مقاطع فيديو تم تحريرها بواسطة الذكاء الاصطناعي وتتكون من مبادلة الوجه – حيث يتم تبديل وجه الشخص بالكامل بوجه شخص آخر (عادةً ما يكون أحد المشاهير أو السياسيين) وجعله يقول شيئًا مزيفًا – ومزامنة الشفاه – حيث يتم التلاعب بفم الشخص واستبداله بمهارة مع صوت مختلف.

تعد مقاطع الفيديو المحتالة بشكل عام مقنعة جدًا، لأن التكنولوجيا كانت موجودة منذ فترة أطول وهي تعتمد على اللقطات الموجودة بدلاً من إنشاء شيء من الصفر. هل تتذكر مقاطع فيديو Tom Cruise العميقة التي تم نشرها قبل بضع سنوات والتي انتشرت بسرعة لكونها مقنعة للغاية؟ لقد نجحوا لأن المبدع، كريس أومي، كان يشبه إلى حد كبير توم كروز، وعمل مع مقلد توم كروز محترف، وقام بالكثير من التحرير الدقيق، وفقًا لأحد التقارير. مقابلة مع أومي من الحافة. في هذه الأيام، هناك وفرة من التطبيقات التي تحقق نفس الشيء ويمكنها أيضًا – بشكل مرعب – قم بتضمين الصوت من مقطع صوتي قصير يجده منشئ المحتوى عبر الإنترنت.

ومع ذلك، هناك بعض الأشياء التي يجب البحث عنها إذا كنت تشك في وجود فيديو مزيف بالذكاء الاصطناعي. أولاً، انظر إلى تنسيق الفيديو. عادةً ما يتم “تصوير” فيديوهات التزييف العميق بتقنية الذكاء الاصطناعي بتنسيق الرأس الناطق، حيث يمكنك فقط رؤية رؤوس المتحدثين وأكتافهم، مع إبعاد أذرعهم عن الأنظار (المزيد عن ذلك خلال دقيقة واحدة).

للتعرف على تبديلات الوجه، ابحث عن العيوب أو الشوائب حول حدود الوجه. وقال هاني فريد، خبير الطب الشرعي الرقمي وأستاذ علوم الكمبيوتر في جامعة كاليفورنيا في بيركلي: “عادة ما ترى القطع الأثرية عندما يتحرك الرأس بشكل غير مباشر نحو الكاميرا”. وأما الذراعان واليدين: “إذا تحركت اليد، أو غطى الوجه شيئاً، [the image] وتابع فريد: “سوف يحدث خلل قليلًا”. وراقب الذراعين والجسم بحثًا عن الحركات الطبيعية. “إذا كان كل ما تراه هو هذا،” – في مكالمة Zoom الخاصة بنا، يحافظ فريد على ذراعيه متصلبتين وعلى جانبيه – “و الشخص لا يتحرك على الإطلاق، هذا مزيف.”

سرعة الضوء ماشابل

إذا كنت تشك في مزامنة الشفاه، ركز انتباهك على فم الشخص المعني — وخاصة الأسنان. وقال ليو إنه في حالة المنتجات المزيفة، “لقد رأينا أشخاصًا لديهم أسنان غير منتظمة الشكل”، أو يتغير عدد الأسنان طوال الفيديو. وقال ليو إن هناك علامة غريبة أخرى يجب الانتباه إليها وهي “تذبذب النصف السفلي” من الوجه. وقال: “هناك إجراء فني حيث يتعين عليك مطابقة وجه ذلك الشخص تمامًا”. “بينما أتحدث، أحرك وجهي كثيرًا، وهذه المحاذاة، إذا كان لديك القليل من عدم الدقة هناك، فإن العيون البشرية قادرة على معرفة ذلك.” يمنح هذا النصف السفلي من الوجه تأثيرًا مطاطيًا أكثر سيولة.

عندما يتعلق الأمر بالتزييف العميق للذكاء الاصطناعي، تقول أرونا سانكارانارايانان، مساعدة الأبحاث في مختبر علوم الكمبيوتر والذكاء الاصطناعي بمعهد ماساتشوستس للتكنولوجيا، إن اهتمامها الأكبر ليس التزييف العميق لأشهر السياسيين في العالم مثل دونالد ترامب أو جو بايدن، ولكن الشخصيات المهمة التي قد لا تكون معروفة جيدا. وقال سانكارانارايانان، الذي تولى رئاسة الوزراء: “التلفيق يأتي منهم، ويشوه بعض الحقائق، عندما لا تعرف كيف تبدو أو تبدو وكأنها في معظم الأوقات، وهذا أمر يصعب دحضه حقا”. يركز العمل على التزييف السياسي العميق. مرة أخرى، هذا هو الوقت الذي يأتي فيه دور محو الأمية في مجال الذكاء الاصطناعي؛ تتطلب مقاطع الفيديو المشابهة هذه بعض الأبحاث للتحقق منها أو دحضها.

مقاطع فيديو تحويل النص إلى صورة

ثم هناك الوافدون الجدد المثيرون: نماذج نشر النص إلى الصورة التي تولد مقاطع فيديو من مطالبات نصية أو صورية. أحدثت شركة OpenAI ضجة كبيرة عندما أعلنت عن Sora، وهو مولد فيديو يعمل بالذكاء الاصطناعي. على الرغم من أنها غير متوفرة بعد، إلا أن مقاطع الفيديو التجريبية كانت كافية لإبهار الناس بتفاصيلها الدقيقة، وصورها الواقعية الحية، وتتبعها السلس، كل ذلك من خلال مطالبات نصية بسيطة.

منذ ذلك الحين، ظهرت مجموعة من التطبيقات الأخرى التي يمكنها تحويل الميمات المفضلة لديك إلى صور GIF ومشاهد خيالية تبدو وكأنها أخذت فريق CGI بأكمله بميزانية ديزني. مبدعين هوليود من حقهم أن يشعروا بالغضب إزاء ظهور نماذج تحويل النص إلى صورة، والتي من المحتمل أن يتم تدريبهم على عملهم والآن يهدد باستبداله.

لكن التكنولوجيا لم تصل بعد، لأنه حتى مقاطع الفيديو الخاصة بـ Sora من المحتمل أن تتطلب بعض التعديلات الرائعة والمستهلكة للوقت. تتكون مقاطع الفيديو التوضيحية لـ Sora من سلسلة من التعديلات السريعة، لأن التكنولوجيا ليست جيدة بما يكفي حتى الآن لإنشاء مقاطع فيديو أطول خالية من العيوب. لذلك يمكنك أن تكون منتبهًا بشكل خاص للمقاطع القصيرة: قال فريد: “إذا كان الفيديو مدته 10 ثوانٍ، فكن متشككًا. هناك سبب لكونه قصيرًا”. وتابع: “في الأساس، لا يمكن لتحويل النص إلى فيديو إجراء مقطع واحد مدته دقيقة واحدة”، مضيفًا أنه من المرجح أن يتحسن هذا في الأشهر الستة المقبلة.

وقال فريد أيضًا أنه يجب البحث عن “التناقضات الزمنية”، مثل “المبنى أضاف قصة، أو السيارة غيرت ألوانها، وهي أشياء غير ممكنة فيزيائيًا”. “وغالبًا ما يكون الأمر بعيدًا عن مركز الاهتمام حيث يحدث ذلك.” لذلك، ركز على تفاصيل الخلفية. يقول ليو: “قد ترى أشياء ملساء أو ملتوية بشكل غير طبيعي، أو يتغير حجم الشخص أثناء سيره حول المبنى”.

يقول كمالي أن تبحث عن “الأمور غير المعقولة الاجتماعية والثقافية” أو أدلة السياق حيث لا تبدو حقيقة الوضع معقولة. “لا ترى القصص على الفور، لكنك تشعر أن هناك خطأ ما – مثل صورة بايدن وأوباما يرتديان بدلات وردية”، أو البابا يرتدي سترة منتفخة من Balenciaga.

وبغض النظر عن القرائن السياقية، فمن المرجح أن ينخفض ​​وجود القطع الأثرية قريبًا جدًا. وول ستريت على استعداد للمراهنة مليارات الدولارات عليه. (وهذا يعني أن الرأسمالية المغامرة لا يعرف حقا للحصول على تقييمات بأسعار معقولة للشركات الناشئة في مجال التكنولوجيا بناءً على أدلة سليمة على الربحية.)

قد تتغير المصنوعات، لكن الحكم الجيد يبقى.

وكما قال فريد لموقع ماشابل: “تعالوا تحدثوا معي خلال ستة أشهر وستكون القصة قد تغيرت”. لذا، فإن الاعتماد على إشارات معينة للتحقق مما إذا كان مقطع الفيديو تم إنشاؤه بواسطة الذكاء الاصطناعي قد يعرضك للمشاكل.

تم نشر بحث Lyu لعام 2018 حول اكتشاف مقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي لأن الأشخاص الذين لم يرمشوا بشكل صحيح على نطاق واسع في مجتمع الذكاء الاصطناعي. ونتيجة لذلك، بدأ الناس يبحثون عن عيوب رمش العين، ولكن مع تقدم التكنولوجيا، زاد عدد الرمش الطبيعي. وقال ليو: “بدأ الناس يعتقدون أنه إذا كانت هناك ومضة عين جيدة، فيجب ألا تكون مزيفة بعمق، وهذا هو الخطر”. “نحن في الواقع نريد رفع مستوى الوعي ولكن لا نتعلق بأشياء معينة، لأن هذه القطع الأثرية سيتم تعديلها.”

بناء الوعي بأن شيئا ما قد وقال ليو إن إنشاء الذكاء الاصطناعي “سيؤدي إلى سلسلة كاملة من الإجراءات”. “تحقق، من يشارك هذا؟ هل هذا الشخص موثوق به؟ هل هناك أي مصادر أخرى مرتبطة بنفس القصة، وهل تم التحقق من ذلك بوسائل أخرى؟ أعتقد أن هذه هي التدابير المضادة الأكثر فعالية للتزييف العميق.”

بالنسبة لفريد، فإن تحديد مقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتزييف العميق المضلل يبدأ من مصدر معلوماتك. خذ الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي التي تم تداولها على وسائل التواصل الاجتماعي في أعقاب إعصار هيلين وإعصار ميلتون. كان معظمها مزيفًا بشكل واضح، لكن كان لها تأثير عاطفي على الناس. وقال: “حتى عندما لا تكون هذه الأشياء جيدة جدًا، فهذا لا يعني أنها لا تخترق، ولا يعني أنها لا تؤثر نوعًا ما على الطريقة التي يستوعب بها الناس المعلومات”.

كن حذرًا بشأن الحصول على الأخبار من وسائل التواصل الاجتماعي. قال فريد قبل أن يضيف أن الأمر كله يعود إلى محو الأمية الإعلامية: “إذا كانت الصورة تبدو وكأنها اصطياد نقرات، فهي اصطياد نقرات”. فكر في من نشر الفيديو وسبب إنشائه. “لا يمكنك مجرد النظر إلى شيء ما على تويتر والقول: “أوه، لا بد أن هذا صحيح، دعني أشاركه”.”

إذا كانت لديك شكوك بشأن المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، فتحقق من المصادر الأخرى لمعرفة ما إذا كانوا يشاركونه أيضًا، وما إذا كان كل شيء يبدو متماثلًا. وكما يقول ليو، “يبدو التزييف العميق حقيقيًا من زاوية واحدة فقط”. ابحث عن زوايا أخرى للمثيل المعني. يوصي فريد بمواقع مثل Snopes وPolitifact، التي تكشف المعلومات الخاطئة والمضللة. بينما نواصل جميعًا التنقل في مشهد الذكاء الاصطناعي سريع التغير، سيكون من الضروري القيام بالعمل – والثقة بحدسك.

المواضيع
الذكاء الاصطناعي



مصدر

LEAVE A REPLY

Please enter your comment!
Please enter your name here