ما هو "الديب فيك".. وكيف نتعامل مع محتواه؟

مشاركة

مؤاب -  في عالم رقمي مترامي الأطراف سريع التطور أضحى يضم أكثر من 5 مليارات مستخدم حول العالم منهم 11 مليونا في الأردن، برز خلال السنوات الأخيرة توجها مثيرا للقلق يسمى بـ"التزييف العميق أو بالانجليزية "الديب فيك"  Deepfake ".
هذه التقنية التي تستفيد من تقنيات الذكاء الاصطناعي لإنشاء محتوى صوتي أو فيديو وحتى إنشاء " أفاتار" أو ما يسمى بشخصيات افتراضية تظهر أنها واقعية وحقيقية ولكنها في الأصل مُزيفة باحتراف، ما يفتح بابا جديدا أمام الهاكرز للاستفادة منها في تحقيق الأهداف والاضرار بالناس.
وقال خبراء محليون إن "تقنية "الديب فيك" رغم ما يمكن ان ينجم عنها من تهديدات ومخاطر كبيرة إلا أن لها جوانب إيجابية وتطبيقات مفيدة يمكن أن تفيد الناس والقطاعات المختلفة، إذ يمكن وصفها بتقنية " رمادية" أي تحمل الوجهين الإيجابي والسلبي وهذا يتوقف على كيفية الاستخدام. 
ودعا الخبراء والجهات المعنية بقطاع الاتصالات والتقنية إلى ضرورة الوعي بهذه التقنية والتحقق من أي محتويات يمكن أن تصلنا عبر مختلف وسائل التواصل الاجتماعي والإنترنت مكتوبة أو مصورة أو فيديوية أو صوتية وخصوصا المثيرة للجدل والغريبة، واتباع إجراءات الأمان وعدم إتاحة كم هائل من المعلومات والبيانات الشخصية عن حياتنا حتى لا تطوع وتستخدم ضمن هذه التقنية للإضرار بنا، إلى جانب أهمية وضع تنظيمات وتشريعات يمكن أن تحيد الجوانب السلبية التي يمكن أن تنجم عن هذه التقنية.
وببساطة يمكن تعريف تقنية "الديب فيك" بأنها أحدث ما توصل الذكاء الاصطناعي وهي تقوم بإنشاء محتويات وهمية أو التعديل على المحتويات الحقيقية من مقاطع وصور ووثائق بمستوى عال متقدم من الجودة مما يجعلها تبدو حقيقية إلى الحد الذي لا يثير أيّ شكوك، والكلمة " Deepfake  " هي مزيج من كلمتي  "Deep Learning أي "تعلم عميق" ، وكلمة " " Fake" أي "مزيف". 
ووفقا للخبراء فإن " الديب فيك" تقنية تشمل تزييف الصوت بإنشاء مقاطع صوتية أو تعديل التسجيلات الحقيقية للأشخاص بحيث تبدو واقعية، وتزييف الصور حيث يتجه محترفو الديب فيك إلى إنشاء صور أكثر واقعية لأحداث ومواقف غير حقيقية، وتزييف الفيديو ويقصد به تعديل مقاطع الفيديو بإضافة أشخاص أو تغيير أحداث بحيث يبدو المحتوى واقعيا جداً وغير مثير للشكوك، وتزييف المحتوى المكتوب وذلك عبر القيام بتوليد نصوص تظهر وكأنها واقعية وأكثر إقناعا. 
وأكدوا أنه يمكن استخدام شتى أنواع التزييف العميق لتلبية أغراض مختلفة احتيالية سياسية، أو لأغراض السخرية، أو لأغراض الابتزاز والاحتيال، وغيرها من الأهداف الضارة، لكن يقابل ذلك ثمة استخدامات وتطبيقات مفيدة في قطاعات الأفلام والترفيه والسينما والتعليم والصحة وغيرها.
ما هو الديب فيك؟
خبير إستراتيجيات الذكاء الاصطناعي والميتافيرس في شركة "ميتا سيرف مي" رامي الدماطي بين أن تقنية " الديب فيك"، أو بالعربية " التزييف العميق"، هي تقنية تعتمد على الذكاء الاصطناعي لإنتاج أو تعديل الفيديوهات بشكل يبدو حقيقيا، ولكنه في الواقع مزيف. 
وقال "هذه التقنية تعتمد على دمج الصور ومقاطع الفيديو لشخصيات معينة لإنشاء محتوى جديد باستخدام التعلم الآلي، ما يجعلها تبدو وكأنها تعرض أحداثا حقيقية لم تحدث في الواقع". 
آلية عمل الديب فيك
وحول آلية عمل هذه التقنية أوضح الدماطي انها تعتمد على نظامين من الذكاء الاصطناعي: المولد والمميز، حيث يقوم المولد بإنشاء فيديو جديد، ثم يتم إرساله إلى المميز ليحدد ما إذا كان الفيديو حقيقيا أم مزيفا. إذا تبين أن الفيديو حقيقي، ثم يتعلم المولد إنشاء فيديوهات أكثر إقناعا.
ومع الوقت، يتحسن أداء النظامين ليصل إلى مرحلة إنتاج فيديوهات مزيفة تكاد تكون غير قابلة للاكتشاف.
مخاطر الديب فيك
ورغم الفوائد التي يمكن أن تقدمها هذه التقنية، إلا أنها تمثل خطرا كبيرا وفقا للدماطي، خاصة عند استخدامه في أغراض خبيثة مثل الإساءة للسمعة أو الترويج لأجندات معينة.
وضرب مثلا كيف  انتشرت في الهند حالات كثيرة من إساءة السمعة باستخدام الديب فيك، حيث تم تركيب مشاهد غير أخلاقية لنساء في مجال الصحافة، مما أدى إلى زيادة الإهانات والازعاجات عبر الإنترنت.
وأشار الدماطي إلى أنه في الولايات المتحدة، قامت ولاية فرجينيا بوضع قوانين لتجريم المحتوى الإباحي المزيف باستخدام الديب فيك.
وتحدث الدماطي عن أبرز إيجابيات هذه التقنية قائلا "رغم المخاطر المرتبطة بالديب فيك، فإن لهذه التقنية فوائد عدة. في صناعة السينما والإعلام، يمكن استخدام الديب فيك لتصوير مشاهد صعبة بتكلفة أقل وبدقة أكبر يمكنها أيضا تقليل زمن التصوير وخفض تكاليف الإنتاج، مما يزيد من الأرباح وفي الإعلام، يمكن استخدام التقنية لظهور المذيعين بشكل طبيعي حتى في حال غيابهم لأسباب مرضية أو غيرها، بدلا من البحث عن بديل في اللحظة الأخيرة". 
علاوة على ذلك، قال الدماطي "انتشار هذه التقنية تعزز من وعي الناس بأهمية التحقق مما يرونه عبر الإنترنت والتلفاز، مما يحد من انتشار الأخبار المزيفة".
كيف نكشف محتوى "الديب فيك" 
وقال الدماطي "بعض الولايات مثل كاليفورنيا بدأت في وضع قوانين لمكافحة تهديدات الديب فيك بالإضافة إلى ذلك، تطورت خوارزميات الأمن السيبراني لاكتشاف الفيديوهات المزيفة". 
وأشار إلى أن المستخدم يمكنه أن يمكن الكشف عن فيديوهات الديب فيك من خلال مراقبة الحركة المتقلبة، التغير في الإضاءة، التغير في لون البشرة، حركة الشفاه غير الطبيعية، ورمش العينين غير الطبيعي في المحتوى الذي يشاهده. 
وأكد أنه مع تقدم التكنولوجيا، صار اكتشاف محتوى الديب فيك أصعب، تستخدم الشركات تقنيات مثل البلوك تشين للتحقق من مصادر الفيديوهات والصور، واقترحت طرق أخرى مثل التوقيع الرقمي للوسائط لضمان تتبعها إلى المالك الأصلي.
وقدم الدماطي خطوات في جانب التكنولوجيا، هناك إجراءات أمان يمكن اتباعها للحماية من مقاطع الفيديو أو الصور أو المحتويات المزيفة منها: تعليم الموظفين وأفراد الأسرة كيفية اكتشاف الفيديوهات المزيفة، واعتماد على مصادر أخبار موثوقة، واستخدام بروتوكولات أمنية جيدة، مثل عمليات النسخ الاحتياطي المنتظمة واستخدام كلمات مرور قوية.
تزييف الصوت بغرض الابتزاز والاحتيال 
عن تزييف المحتوى الصوتي على وجه الخصوص قال الخبير في مجال الذكاء الاصطناعي هاني البطش إن هذه التقنية تجعل الأفراد ضحية للاحتيال عن طريق وسائل عدة تشمل استخراج المخترقين أنموذجا لصوت الضحية من أحد حساباته في مواقع التواصل، وبعد تحليل تلك المقاطع الصوتية يولدون رسائل صوتية مزيفة بتقنيات الذكاء الاصطناعي، تبدو وكأنها بصوت الفرد الحقيقي، ثم ينشئون رسالة "ديب فيك" تدعي حاجة الفرد لأموال عاجلة ويرسلونها للأصدقاء المقربين، وبناء على ثقة الصديق بصوت الفرد قد يوفي بالطلب ويرسل تفاصيله المصرفية للمخترقين، من دون علمه ليقع ضحية هذا الأمر. 
وبين البطش أن هناك ثلاثة إجراءات للحماية من هذا المحتوى على وجه الخصوص أهمها الحذر من الطلبات الغريبة للمعلومات الشخصية حتى من المقربين، وعدم مشاركة المعلومات الحساسة للفرد إلا بعد التأكد من هوية الطرف الآخر، وسرعة إبلاغ السلطات عن أي محاولات للاحتيال أو الابتزاز باستخدام تقنية "الديب فيك".
وفي مثال على " تزييف الصوت"  تمكن محتال في ألمانيا قبل سنوات من تقليد صوت رئيس شركة للطاقة، وجعل رئيس فرع آخر يحول مبلغا ماليا كبيرا إلى حساب بنكي باستخدام تقنية الديب فيك. 
ويرى الخبير والمستشار في مجال الذكاء الاصطناعي د.رامي شاهين ان تقنية " الدييب فيك" مع التطور الهائل الذي نشهده في مجال الذكاء الاصطناعي تفتح آفاقا جديدة للإبداع والتطبيقات العملية، ولكنها في الوقت ذاته تحمل الكثير من التحديات الأخلاقية والأمنية الكبيرة مع الانتشار الواسع لاستخدام الإنترنت والمنصات الرقمية والاجتماعية. 
تطبيقات مفيدة لتقنية " الديب فيك" 
عن التطبيقات العملية المفيدة بين شاهين أنه يمكن استخدام هذه التقنيات الحديثة لإنشاء محتوى متطور جدا ومخصص بدقة عالية، مثل تطوير واجهات تفاعلية أكثر طبيعية للأنظمة القائمة على الذكاء الاصطناعي، أو لأغراض التدريب والتعليم، لافتا إلى أنه يمكن الاستفادة من هذه التقنيات في التعليم الإلكتروني لإنشاء محتوى تعليمي تفاعلي يعزز تجربة التعلم، أو في القطاع الصحي لإنشاء محاكاة للتدريب على الإجراءات الطبية. 
بيد أنه أكد أن المحتوى المنتج من خلال هذه التقنية يفرز التحديات مثل القدرة على إنشاء محتوى مزيف بمستوى عال من الإقناع ما يطرح مخاوف بشأن الخصوصية والأمن السيبراني وانتشار المعلومات المضللة.
وبناء عليه شدد شاهين على أهمية التحكم الأخلاقي والتنظيمي اليوم يصبح ضروريا لموازنة الفوائد مع المخاطر. 
وأكد أنه يجب العمل على جانبين، إذ يجب تطوير آليات لتحديد المحتوى المنتج بهذه الطريقة وتقييمه، والعمل على تعزيز الوعي حول كيفية التمييز بين المحتوى الحقيقي والمزيف. 
من جانبه، قال الخبير في مجال الاتصالات والتقنية وصفي الصفدي إن "قدرة الذكاء الاصطناعي في تطور مستمر نتيجة الكم المعرفي والعلوم التي يستطيع الوصول اليها وتحليلها واستخدامها لإيجاد أي محتوى، كما أن قدرته تتزايد على إيجاد شخصيات وتقليد الأصوات والحركات بما يمتلكه من معرفة من خلال معالجة المحتوى المرئي والسمعي لتلك الشخصية ومن ثم إيجاد "الافاتار" أو التزييف العميق للشخصية والتي يمكن استخدامها بشكل مسيء للشخصيات التي تم تقليدها أو تزييفها بشكل مناف للأخلاق والأعراف. 
وأكد الصفدي أن هذه التقنية مثل غيرها من التقنيات المتطورة، تحتاج من الدول والمنظمات والمؤسسات تفعيل دور تشريعي ورقابي على كافة أدوات التكنولوجيا لما تشكله من خطر على البشرية إذا ما استغلت بشكل مخالف للقوانين والأعراف الدولية للحد من الاستخدامات الضارة للبشرية. 
وسائل الحماية من "الديب فيك"  
وحول أبرز وسائل الحماية والاحتياط من سلبيات وأضرار تقنية " الديب فيك" أكد الصفدي أن هناك مجموعة من الخطوات يمكن اتباعها تقلل خطر الوقوع ضحية للتزييف العميق بشكل كبير.  
وأكد أهمية التفكير في أي محتوى يصلنا أو نشاهده ومحاولة تقصي المعلومات عنه قبل التعامل معه مباشرة، وخصوصا المحتوى المثير أو الذي يصعب تصديقه أو الذي يثير الفضول كثيرا سواء كان مكتوب أو صوتيا أو على شكل صور وفيديويات، فالذكاء الاصطناعي وتقنياته المتقدمة قدمت لنا خلال السنوات الأخيرة الكثير من المحتوى وخصوصا عبر وسائل التواصل الاجتماعي كانت مثيرة للاهتمام وتظهر بملامح الحقيقة ولكنها تكون مزيفة في أصلها وغرضها الاضرار بنا أو القرصنة أو سلب المعلومات والمعلومات الخاصة وغيرها من الأهداف الخطيرة التي قد تصل إلى حدود الاضرار الاجتماعي والأمني والسياسي. 
وقال الصفدي "يجب أن نكون أكثر حذرا عند التعامل مع الرسائل والطلبات غير العادية التي تصلنا عبر مختلف القنوات وتطبيقات التراسل مثل الطلبات غير المتوقعة للحصول على المال أو المعلومات الشخصية".  وأوضح قائلا  "حتى لو بدا الصوت مألوفا على سبيل المثال، توقف للحظة للتحقق من شرعية الطلب بالاتصال المباشر مع الشخص أو الجهة الرسمية للتأكد من شرعية الطلب". 
ودعا الصفدي المستخدمين إلى التحقق مرة أخرى من هوية أي متصل قبل مشاركة أي معلومات حساسة وقال " تأكد من هوية الشخص الذي يتصل بك، فكر في الاتصال بهم مباشرة أو استخدام طريقة اتصال موثوقة للتحقق". 
ودعا أيضا إلى الإبلاغ عن أي نشاط مشبوه وقال " إذا واجهت محاولة للتزييف العميق أو اشتبهت في وجود نشاط احتيالي، فأبلغ السلطات بذلك على الفور".(الغد)

الكلمات المفتاحية