تكنولوجيا

خوارزميات مرعبة تعيد الموتى إلى الحياة

في العام الماضي، أهدى مغني الراب الأميركي كاني ويست زوجته كيم كارداشيان صورة ثلاثية الأبعاد لوالدها الراحل لتهنئتها بعيد ميلادها، ولأنها أيضا تزوجت من “أكثر الرجال عبقرية في العالم كله”.

ومثلها مثل أي ظاهرة جديدة، طرحت هذه التقنية مختلف أنواع الأسئلة الأخلاقية والقانونية، لاسيما حول الموافقة واحتمال طمس الواقع من خلال إعادة إنشاء شريك افتراضي.

وقالت إيلين كاسكت، وهي أستاذة علم النفس في جامعة ولفرهامبتون في بريطانيا، والتي ألفت كتابا عن “الحياة الآخرة الرقمية”، إنه في حين أن الديب نوستالجيا ليست بالضرورة “إشكالية”، إلا أنها تضعنا “على حافة منحدر زلق”. وتابعت “عندما يبدأ الناس في الكتابة حول التاريخ أو يعيدون إثارة الماضي… نتساءل أين يمكن أن ينتهي بنا الأمر”.

بينما أعرب معظم المغردين عن دهشتهم وصف آخرون الميزة بأنها “مرعبة” وقالوا إنها تثير أسئلة أخلاقية

وأقرت شركة ماي هيرتج على موقعها الإلكتروني بأن التكنولوجيا يمكن أن تكون “غريبة بعض الشيء” وأن استخدامها “مثير للجدل”، لكنها شددت على أنها عملت على اتخاذ خطوات لمنع الانتهاكات.

وقال مدير العلاقات العامة في الشركة، رافي مندلسون، في بيان “تشتمل ميزة ديب نوستالجيا صورا متحركة مشفرة دون أي كلام عمدا، مما يحول دون استخدامها لتزييف أي محتوى أو إيصال أي رسالة”.

ومع ذلك، يمكن للصور وحدها أن تنقل المعنى، كما قال فهيم حسين، وهو أستاذ مساعد في جامعة أريزونا. وذكر حسين لمؤسسة تومسون رويترز عبر الهاتف “تخيل أن أحدا عدّل صورة للعشاء الأخير وجعل يهوذا الإسخريوطي يغمز إلى مريم المجدلية. ما هي ردود الفعل التي يمكن أن يحدثها ذلك”؟

وبالمثل، يمكن استخدام الذكاء الاصطناعي في الصور لجعل شخص ما يبدو كما لو كان يفعل أشياء قد لا يرغب فيها، مثل الابتسام في جنازة. وقال مندلسون إن استخدام صور شخص على قيد الحياة دون موافقته يعد انتهاكا لشروط الشركة وأحكامها، مضيفا أن مقاطع الفيديو تشمل رموز الذكاء الاصطناعي لتمييزها عن التسجيلات الأصلية. وأضاف “من مسؤوليتنا الأخلاقية أن نحدد مثل هذه الفيديوهات الاصطناعية بوضوح ونميزها عن مقاطع الفيديو الحقيقية”.

التزييف العميق

 الباحثون يخشون من أن هذه التقنية تجعل الناس لا يثقون في الأدلة السمعية والبصرية وهو بحد ذاته ضرر اجتماعي
 الباحثون يخشون من أن هذه التقنية تجعل الناس لا يثقون في الأدلة السمعية والبصرية وهو بحد ذاته ضرر اجتماعي

على مدار السنوات القليلة الماضية شهدنا ارتفاعا سريعا في التقنيات التي تستخدم خوارزميات الذكاء الاصطناعي، وبالتحديد تقنية “التعلم الآلي”، لتحليل لقطات من أناس حقيقيين، ومن ثم نشر مقاطع فيديو مقنعة حول قيامهم بأشياء لم يفعلوها أو قول أشياء لم يقولوها قط.

ويُعدّ برنامج “فيديو ريرايت”‏ الذي صدرَ في عام 1997 أوّل معالم هذه التقنية حيثُ قام بتعديل فيديو لشخص يتحدث في موضوع مُعيّن إلى فيديو لنفسِ الشخص يتحدث في موضوع آخر من خِلال استغلال الكلمات التي نطقها ذاك الشخص ومُحاولة ترتيبها في سياق مختلف لتكوين جمل جديدة لم يقلها الشخص في الفيديو أصلا.

وبحلول عام 2017 ظهر برنامج “سانثيسايزينغ أوباما” الذي نشرَ فيديو للرئيس الأميركي السابق باراك أوباما وهو يتكلّم بصوت عال حول هذه التقنيّة مُحاولا شرح مخاطرها، وهو ما لم يفعلهُ أوباما أصلا، بل إنّ البرنامج قامَ بجمعِ عدد من فيديوهات الرئيس ثمّ حاول استخراج الكلمات التي يحتاجها، والتي نُطقت في سياق مختلف، من أجل استعمالها في الفيديو الوهميّ الجديد. وعَرفت هذه التقنية تطورا إضافيا بعد ظهور برنامج “فيس تو فيس” الذي صدر عام 2016 والذي يقومُ بمحاكاة تعبيرات وجه شخص في فيديو قديم مُحولا إيّاها إلى تعبيرات جديدة حسب رغبة المستخدم.

أما مصطلح التزييف العميق نفسه فقد ظهر في نهاية عام 2017 من أحدِ مستخدمي ريديت والذي سمّى نفسه “ديب فيكس” قام بالاشتراك مع آخرين بمشاركة فيديوهات إباحية مزيّفة كانوا قد صنعوها لمشاهير، حيث قاموا مثلا بتحميل فيديوهات يظهرَ فيها ممثلون إباحيون حقيقيون ثمّ استبدلوا وجه الممثل الإباحي بوجهِ ممثل أميركي مشهور.

يمكن استخدام الذكاء الاصطناعي في الصور لجعل شخص ما يبدو كما لو كان يفعل أشياء قد لا يرغب فيها، مثل الابتسام في جنازة

وحقّقت تلك الفيديوهات نسب مشاهدات عالية كما تمّ تداولها على نطاق كبير في مواقع التواصل وكان من الصعب اكتشاف أنها مزيفة، خاصّة الفيديو المزيّف للممثل الأميركي نيكولاس كيج الذي كان واقعيا وصدقهُ الكثير.

وبحلول فبراير 2018 وبعد أن كَثُر الحديث حول هذه التقنيّة قام موقع ريديت بحظر المُستخدم ديب فيكس بدعوى نشره لمقاطع فيديو إباحية مزيّفة، كما قامت باقي المواقع بحظرِ كل من يروّج لهذهِ التقنية، ومع ذلك لا تزال هناك مجتمعات أخرى على الإنترنت، بما في ذلك مجتمعات ريديت، تعمل على مشاركة الفيديوهات المصنوعة بهذهِ التقنيّة بل يقومُ البعض من مستخدمي ريديت بنشرِ فيديوهات وصور مزيّفة لعدد من المشاهير والسياسيين ولا تمّت للحقيقة بصلة، في حين تواصل المجتمعات الأخرى على الإنترنت مشاركة هذهِ المواد بعلم أو دون علم.

وفقا لتقرير صادر عن جامعة لندن فإن الـ”ديب فيك” هي أكثر تقنيات الذكاء الاصطناعي استخداما في الجريمة والإرهاب.

وحدد فريق البحث التابع لجامعة لندن عشرين طريقة مختلفة يمكن أن يستخدم فيها المجرمون الذكاء الاصطناعي مستقبلا. وأسندوا لـ31 خبيرا تقنيّا تصنيف تلك الطرق حسب المخاطر بناء على إمكانية الضرر والأموال التي يمكنهم كسبها وسهولة استخدامها ومدى صعوبة إيقافها.

وكما هو متوقع أظهرت النتيجة أن “ديب فيك” جاء في المرتبة الأولى وأعاد الخبراء ذلك إلى سببين. الأول، أنها تقنية يصعب تحييدها ومنعها من الاستخدام. والثاني، أن طرق كشفها لا تزال غير موثوقة، كما أن مقاطع الـ”ديب فيك” تتحسن باستمرار إلى درجة أنها تصبح قادرة على خداع أشد الخبراء.

وكان “فيسبوك” قد كشف عن مسابقة لتطوير خوارزميات تكون قادرة على كشف خدع الـ”ديب فيك”، ليعلن الباحثون المكلفون بإجراء المسابقة أنها “مشكلة صعبة يتعذر تقديم حل لها”.

هذا جدي الذي مات عندما كنت في الثامنة من عمري أعادته ماي هيرتج إلى الحياة إنه لأمر مجنون للغاية

كما أشار تقرير جامعة لندن إلى أن المجرمين يطورون من أساليبهم لاستخدام هذه التقنية لكسب المال أو تشويه سمعة بعض الشخصيات أو انتحال صفة شخصية معينة لجمع المال من الناس. ويخشى الباحثون من أن هذه التقنية تجعل الناس لا يثقون في الأدلة السمعية والبصرية، وهو بحد ذاته ضرر اجتماعي.

وقال مؤلف الدراسة الدكتور ماثيو كالدويل، من جامعة لندن “كلما زاد اعتماد حياتنا على الإنترنت زادت المخاطر. وعلى عكس العديد من الجرائم التقليدية، يمكن بسهولة مشاركة الجرائم في العالم الرقمي وتكرارها وحتى بيعها، مما يسمح بتسويق التقنيات الإجرامية وتقديم الجريمة كخدمة”.

كما حددت الدراسة أيضا تهديدات رئيسية أخرى متعلقة باستخدام الذكاء الاصطناعي، وهي استخدام المركبات دون سائق كأسلحة، وجمع البيانات عبر الإنترنت للابتزاز، والهجمات على الأنظمة التي تسيطر عليها منظومات تعمل بالذكاء الاصطناعي.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى