إحياء الموتى وتزييف الحقائق: ما هي تقنية التزييف العميق Deepfake؟
تقنية التزييف العميق Deepfake |
هنتكلم النهاردة عن موضوع مهم جدا فى مدونة لينكدان للعرب Linkedin for arab و هو التزيف العميق deepfake .
و هنعرف كل التفاصيل فى مدونة لينكدان للعرب و ازاى انتشر و هل هو موجود بكثرة فى العالم الخارجى . تابعونا فى مدونة لينكدان للعرب
كيف سيكون مستقبل العالم مع انتشار تقنيات الفبركة
مثل التزييف العميق (Deepfake) وكيف تعمل هذه التقنية؟
إحياء الموتى وتزييف الحقائق: ما هي تقنية التزييف العميق Deepfake ؟
قبل عام من الآن تم نشر فيديو مفبرك لنانسي بيلوسي
وهي سياسية أمريكية تشغل حاليًا منصب رئيسة مجلس النواب يبين أنها تحت تأثير
الكحول أثناء إلقاءها لأحد خطاباتها، وتم مشاهدة الفيديو من قبل ملايين الأشخاص
على مختلف مواقع التواصل الاجتماعي قبل أن يتبين أن الفيديو مفبرك وتم تبطيئه
بنسبة 75%، لاحقًا، تم حذف الفيديو من قبل مختلف منصات التواصل الاجتماعي.
تعديلات بسيطة كهذه تغير في الرأي العام وقد تؤثر
على انتخابات ومصير دولة ما، ولكن ظهرت تقنية جديدة قد تغير معطيات اللعبة، لا
أتكلم عن تعديل بسيط لصورة أو فيديو، بل إنشاء محتوى جديد كليًا وجعل شخص يقول
شيئا لم يقله أو يفعل فعلًا لم يفعله بدقة عالية جدًا، تسمى هذه التقنية بالتزييف
العميق (Deep Fake).
ما هي تقنية التزييف العميق، ومتى بدأت؟
هي تقنية تقوم بفبركة الفيديوهات بدقة عالية جدًا،
تعتمد على الذكاء الاصطناعي وتحتاج إلى موارد وخبرات عالية لصناعتها مع ظهور بعض
التطبيقات المتاحة لعامة المستخدمين ذات الجودة المنخفضة.
يعود مصطلح التزييف العميق إلى أحد مستخدمي موقع
Reddit حيث نشر عدد من الفيديوهات الإباحية عام 2017
بتبديل وجوه الممثلات الإباحيات بوجوه مشاهير، تم إغلاق الحساب من قبل الموقع ولكن
المصطلح والتقنية انتشرت بين مستخدمين الإنترنت بعدها.
علميًا، التقنية تعود إلى بحث نشر لجامعة كورنيل
عام 2014 بإشراف الدكتور Ian Goodfellow مبتكر إطار يدعى بالشبكة
التخاصمية المولدة (GAN) وسميت بالتخاصمية لأنها مكونة
من شبكتين تعمل واحدة ضد الأخرى، ووصفها Yann LeCun الحائز
على جائزة تورنغ بأنها أدهش فكرة خلال الـ20 عامًا الأخيرة. علاوة على عدة أبحاث
أخرى طورت ووسعت من تقنيات التزييف العميق مثل مشروع Synthesizing Obama الذي يمكن معرفة حركة الفم من خلال الصوت فقط عن
طريق الذكاء الاصطناعي.
كيف تعمل تقنية التزييف العميق؟
كما ذكرنا سابقًا، تعمل تقنية التزييف العميق تحت
إطار عمل يسمى بالشبكة التخاصمية المولدة (GAN) وهو
إطار يجمع بين شبكتين للذكاء الاصطناعي تعمل واحدة ضد الأخرى. الشبكة
الأولى تسمى بالمولد والتي تقوم بتكوين الصورة مشابه للصورة الأصلية والشبكة
الثانية تسمى بالمميز والتي تقوم بمقارنة الصورة المولدة ومقارنتها بالصورة
الأصلية.
بعد أن يتم توليد الصورة في شبكة المولد يتم
إرسالها إلى شبكة المميز التي تقوم بمقارنة الصورة المولدة بالصورة الأصلية
واِتخاذ القرار بقبولها أم لا، فإذا لم تكتشف شبكة المميز أي فارق فسوف تقبل
الصورة، وإذا حدث العكس سوف تعيد الصورة إلى شبكة المولد ليقوم بعمله من جديد. ومن
خلال هذه العملية تتدرب الشبكتين على صناعة محتوى مفبرك بدقة أكبر وأكبر.
ما هي خطوات صناعة فيديو من خلال تقنية التزييف العميق؟
الخطوة الأولى من صناعة الفيديو المفبرك هي أن
نأتي بفيديو مُسجل مسبقا يظهر به الشخص ونقسمه إلى آلاف الصور (كل ثانية تتكون من
30 إلى 60 صورة)، ثم نقوم بتدريب الذكاء الاصطناعي على الصور.
الخطوة الثانية، نأتي بممثل يمكنه محاكاة تعابير
وجه الشخص إلى حد ما، ونقوم بتصويره لإنشاء الفيديو المفبرك. حيث يقوم الممثل
بالفعل أو القول المطلوب.
الخطوة الثالثة، تبقى الصوت، المشكلة إن تقنيات
التزييف العميق للصوت متواجدة فقط على الورق ولا توجد تطبيقات متاحة للعامة، ولكن
هناك شركات مثل Resemble AI تقوم بالمطلوب بجودة مقبولة إلى
حد ما. بعد إنهاء الخطوات السابقة نقوم بعملية دمجها من خلال تقنية التزييف العميق
بالإضافة إلى برامج تعديل الفيديو لإضافة بعض اللمسات مثل معالجة الألوان وتعديل
الإضاءة وتصحيح الأخطاء. هذه العملية ليتم إنجازها بدقة عالية تحتاج إلى أسابيع من
المعالجة الحاسوبية وخبراء تقنيين.
هل سينجوا المذنبين بفعلتهم؟
عندما يمكن تزييف أي شيء، يمكن للمذنب أن ينجوا
بفعلته من خلال تكذيب الحقيقة لأن الدليل قد يكون مزيفًا، ومع تطور التقنية،
التفريق بين الحقيقة والفبركة عملية مستحيلة. قبل
الإنتخابات الأمريكية في عام 2016 ظهر فيديو للرئيس الأمريكي السابق دونالد ترامب
يتكلم بكلام جنسي بذيء، بعدها اِعتذر دونالد ترامب عن فعلته، ولكن لاحقا، قال:
“لست متأكدًا أني قلت هذا”، بمعنى أن ليس لديكم دليل على أن الفيديو غير مفبرك.
الموتى سوف يتكلمون معنا!
شاب يدعى Joaquin Oliver توفى
في عام 2018 بسبب إطلاق نار بمدرسته قرر والداه أن ينتجان فيديو في 2020 لأبنهم
المتوفى وهو يدعو إلى التصويت لحزب معين ضد إتاحة الأسلحة بسهولة، باستعمال تقنية
الـتزييف العميق، و باستعمال ثلاثة صور فقط، ولكن النتيجة تبدو واقعية. لم يعجب
الكثيرين بفعل والدي Joaquin حيث وصفوه بالمخزي بأن يستعملون
صورة إبنهم الميت لنشر أيديولوجية سياسية، ووصف آخرين إن الفيديو مزعج للعقل وغير
مقبول مجتمعيا، وعلق أحدهم “أخرجوني من هذه الديستوبيا.”
ما هو مستقبل التزييف العميق؟
التقنية مستقبلًا سوف تدخل في مجال صناعة المحتوى
بكل قوة، قبل أشهر بثت قناة MBN الكورية برنامجًا إخباريًا
يستعمل تقنية التزييف العميق بدلًا من مذيعة بشرية. بالطبع مع انتشار المحتوى
المزيف يجب أن تظهر بعض التقنيات التي تحارب المحتوى المزيف، أعلنت شركة
Sensity المتخصصة بالذكاء الاصطناعي إتاحة أداة لكشف
المحتوى المصنوع من خلال تقنية التزييف العميق للعامة وبشكل مجاني، كخطوة لمحاربة
الأخبار الكاذبة.
ولكن بالطبع هناك بعض المحتوى لن يُكشف من خلال أي
أداة أو سوف يصل إلى غايته قبل أن يُكشف، وهناك مشاكل أخرى، مثل تناقض نتائج
أداتين كشف حول صورة أو فيديو معين، فمن نصدق حينها؟
في
الوقت الحالي، الحل الأفضل هو نشر التوعية بين المستخدمين حول تقنيات التزييف
وخطورتها ويجب علينا عدم تصديق أي خبر يقع بين أيدينا.
لو عجبك المقال متنساش تشوف باقى المقالات فى
لينكدان للعرب Linkedin for arab
تعليقات
إرسال تعليق