بعد أسابيع من نجاة الرئيس السابق ترامب من محاولة اغتيال في بتلر بولاية بنسلفانيا، أ الفيديو المتداول على مواقع التواصل الاجتماعي والتي بدا أنها تظهر نائبة الرئيس كامالا هاريس وهي تقول في تجمع حاشد: “دونالد ترامب لا يمكن أن يموت حتى بكرامة”.
أثار المقطع الغضب، لكنه كان مهزلة: لم يقل هاريس ذلك أبدًا. تمت قراءة السطر بواسطة صوت تم إنشاؤه بواسطة الذكاء الاصطناعي والذي بدا مشابهًا بشكل غريب لصوت هاريس ثم تم دمجه في خطاب ألقاه هاريس بالفعل.
وتشهد نسبة كبيرة من الناخبين هذا النوع من التلاعب، وهناك قلق متزايد بشأن تأثيره على الانتخابات، بحسب أ مسح جديد من 2000 بالغ من قبل شركة أبحاث السوق 3Gem. ووجد الاستطلاع، الذي أجرته شركة McAfee للأمن السيبراني، أن 63% من الأشخاص الذين تمت مقابلتهم شاهدوا صورة مزيفة واحدة في الستين يومًا الماضية، وأن 15% تعرضوا لـ 10 أو أكثر.
كان التعرض لمجموعة متنوعة من التزييف العميق منتظمًا إلى حد ما في جميع أنحاء البلاد، وفقًا للاستطلاع، مع كون التزييف العميق السياسي هو النوع الأكثر شيوعًا. لكن التزييف العميق ذي الطابع السياسي كان منتشرًا بشكل خاص في ولايات ميشيغان وبنسلفانيا ونورث كارولينا ونيفادا وويسكونسن، وهي ولايات متأرجحة يمكن أن تحدد أصواتها الانتخابات الرئاسية.
في معظم الحالات، قال المشاركون إن التزييف العميق كان عبارة عن محاكاة ساخرة؛ أقلية (40٪) كانت مصممة للخداع. لكن حتى المحاكاة الساخرة غير المضللة والتزييف العميق يمكن أن تؤثر بشكل لا شعوري على المشاهدين من خلال تأكيد تحيزاتهم أو تقليل ثقتهم في وسائل الإعلام، كما قال ريان كولكين، مدير الاستشارات في Thriveworks، وهي شركة وطنية تقدم خدمات الصحة العقلية.
وقال كولكين: “إنها مجرد إضافة طبقة أخرى إلى وقت مرهق بالفعل”.
قالت الغالبية العظمى من الأشخاص الذين شملهم استطلاع McAfee (91٪) إنهم يشعرون بالقلق من أن التزييف العميق قد يتداخل مع الانتخابات، وربما يغير انطباع الجمهور عن المرشح أو يؤثر على نتائج الانتخابات. ووصف ما يقرب من 40% أنفسهم بأنهم قلقون للغاية. ربما يرجع ذلك إلى هذا الوقت من العام، حيث زادت المخاوف بشأن تأثير التزييف العميق على الانتخابات أو تضليل الجمهور أو تقويض الثقة في وسائل الإعلام بشكل حاد مقارنة بالمسح الذي أجري في يناير، في حين انخفضت المخاوف بشأن التزييف العميق المستخدم في التنمر عبر الإنترنت وعمليات الاحتيال والمواد الإباحية المزيفة، وفقًا للاستطلاع. . وجد.
هناك نتيجتان أخريان جديرتان بالملاحظة: قال سبعة من كل 10 مشاركين إنهم واجهوا مواد مرة واحدة على الأقل في الأسبوع مما جعلهم يتساءلون عما إذا كانت حقيقية أم تم إنشاؤها بواسطة الذكاء الاصطناعي. وقال ستة من كل 10 إنهم غير متأكدين من قدرتهم على الإجابة على هذا السؤال.
في الوقت الحالي، لا يوجد قانون فيدرالي أو قانون في كاليفورنيا يحظر على وجه التحديد التزييف العميق في الإعلانات. وقع الحاكم جافين نيوسوم على مشروع قانون ليصبح قانونًا الشهر الماضي من شأنه أن يحظر مواد الحملة المضللة والمعدلة رقميًا في غضون 120 يومًا من الانتخابات، لكن قاضيًا فيدراليًا منعه مؤقتًا لأسباب التعديل الأول.
وقال جيفري روزنتال، الشريك في شركة بلانك روما للمحاماة والخبير في قانون الخصوصية، إن قانون كاليفورنيا يحظر إعلانات الحملات الانتخابية “المضللة بشكل جوهري” خلال 60 يومًا من الانتخابات. ومع ذلك، قال إن حاجز الدولة المعزز ضد التزييف العميق في الإعلانات لن يدخل حيز التنفيذ حتى العام المقبل، عندما سيتطلب قانون جديد تصنيف الإعلانات السياسية إذا كانت تحتوي على محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي.
ما يمكنك فعله بالتزييف العميق
McAfee هي واحدة من العديد من الشركات التي تقدم أدوات البرمجيات التي تساعد في اكتشاف الوسائط ذات المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي. اثنان آخران مرحبًا و بيتميندالتي تقدم امتدادات مجانية لمتصفح Google Chrome تكتشف التزييفات العميقة المشتبه بها.
وقال باتشين نويلكي، نائب رئيس التسويق في شركة Hiya في سياتل، إن تكنولوجيا شركته تحلل البيانات الصوتية بحثًا عن أنماط تشير إلى أنها تم إنشاؤها بواسطة جهاز كمبيوتر وليس بواسطة الإنسان. قال نويلكي: إنها لعبة القط والفأر. سوف يبتكر المحتالون طرقًا لتجنب اكتشافهم، وستتكيف شركات مثل Hiya للتعامل معهم.
وقال كين جون مياشي، المؤسس المشارك لشركة BitMind في أوستن، تكساس، إن تقنية شركته تعمل حاليًا فقط مع الصور الثابتة، على الرغم من أنه سيكون لديها تحديثات لاكتشاف الذكاء الاصطناعي في ملفات الفيديو والصوت في الأشهر المقبلة. لكنه قال إن أدوات إنشاء التزييف العميق تتقدم على أدوات اكتشافها في الوقت الحالي، ويرجع ذلك جزئيًا إلى “وجود استثمارات أكبر بكثير في الجانب التوليدي”.
وهذا هو أحد الأسباب التي تجعلها تساعد في الحفاظ على ما وصفه ستيف جروبمان، المدير التنفيذي للتكنولوجيا في McAfee، بالشكوك الصحية حول المواد التي يتم مشاهدتها عبر الإنترنت.
وقال: “يمكننا جميعًا أن نكون عرضة للتزييف العميق، خاصة عندما يؤكد تحيزًا طبيعيًا لدينا بالفعل”.
بالإضافة إلى ذلك، يرجى ملاحظة أن الصور والأصوات الناتجة عن الذكاء الاصطناعي قد تكون مضمنة في مواد أصلية. قال جروبمان: “إن التقاط مقطع فيديو والتلاعب به لمدة خمس ثوانٍ فقط يمكن أن يغير نغمة الرسالة حقًا”.
“لست بحاجة إلى تغيير الكثير. “إن العبارة التي يتم إدخالها في الخطاب في اللحظة المناسبة يمكن أن تغير المعنى حقًا.”
أشار سناتور الولاية جوش بيكر (ديمقراطي من مينلو بارك) إلى أن هناك ما لا يقل عن ثلاثة قوانين للولاية من المقرر أن تدخل حيز التنفيذ العام المقبل تتطلب الكشف بشكل أكبر عن المحتوى الناتج عن الذكاء الاصطناعي، بما في ذلك القانون الذي قام بتأليفه، وهو قانون كاليفورنيا للشفافية في مجال الذكاء الاصطناعي. وقال إنه حتى مع هذه الإجراءات، لا تزال الولاية بحاجة إلى قيام السكان بدور نشط في اكتشاف المعلومات الخاطئة وإيقافها.
وقال إن الأشياء الأربعة الرئيسية التي يمكن للناس القيام بها هي التشكيك في المحتوى الذي يثير مشاعر قوية، والتحقق من مصدر المعلومات، ومشاركة المعلومات من مصادر موثوقة فقط، والإبلاغ عن المحتوى المشبوه لمسؤولي الانتخابات والمنصات التي تتم مشاركتها فيها. قال بيكر: “إذا كان هناك شيء يؤثر عليك عاطفياً للغاية، فربما يكون من المفيد التراجع خطوة إلى الوراء والتفكير: من أين يأتي هذا؟”
تقدم شركة McAfee على موقعها الإلكتروني خدمة مجموعة من النصائح لتحديد التزييف العميق المحتمل، وتجنب عمليات الاحتيال المتعلقة بالانتخابات، وعدم نشر الوسائط الكاذبة. وتشمل هذه:
- ابحث في النصوص عن التكرار والتفكير السطحي وندرة الحقائق. ينصح الموقع قائلاً: “غالباً ما يقول الذكاء الاصطناعي الكثير دون أن يقول الكثير، ويختبئ خلف فائض من المفردات الثقيلة ليبدو مطلعاً”.
- في الصورة والصوت، قم بالتكبير للبحث عن التناقضات وحركات المتحدث الغريبة واستمع إلى الأصوات التي لا تتطابق مع ما تراه.
- حاول تعزيز المادة بمحتوى من مواقع أخرى راسخة.
- لا تأخذ أي شيء حرفيا.
- افحص المصدر، وإذا كانت المادة مقتطفًا، فحاول العثور على الوسائط الأصلية في سياقها.
بالنسبة لأي شيء لا تراه بعينيك أو من خلال مصدر موثوق بنسبة 100%، “افترض أنه ربما تم تعديله باستخدام برنامج الفوتوشوب”، كما نصح جروبمان. كما حذر من أنه من السهل على المحتالين استنساخ مواقع الانتخابات الرسمية ثم تغيير بعض التفاصيل، مثل موقع وساعات عمل مراكز الاقتراع.
ولهذا السبب يجب أن تثق في المواقع المتعلقة بالتصويت فقط إذا كانت عناوين URL الخاصة بها تنتهي بـ .gov، مضيفًا: “إذا كنت لا تعرف من أين تبدأ، يمكنك البدء من Vote.gov“. ويقدم الموقع معلومات حول الانتخابات وحقوق التصويت، بالإضافة إلى روابط لمواقع الانتخابات الرسمية في كل ولاية.
وقال جروبمان: “إن احتمال أن يكون جزء كبير من عالمنا الرقمي مزيفًا يؤدي إلى تدهور الثقة في كل مكان”. وفي الوقت نفسه، قال: «عندما يكون هناك دليل مشروع على سوء السلوك، أو الجريمة، أو السلوك غير الأخلاقي، فمن السهل جدًا الادعاء بأنه كان كاذبًا. … إن قدرتنا على محاسبة الأشخاص عند وجود الأدلة تتضرر أيضًا بسبب التوافر المتفشي للتزييف العميق الرقمي.