تكنولوجيا

استشاري ذكاء اصطناعي: هكذا تستخدم الجماعات وأهل الشر الذكاء الاصطناعي لنشر الفتن؟

استشاري ذكاء اصطناعي: هكذا تستخدم الجماعات وأهل الشر الذكاء الاصطناعي لنشر الفتن؟ هذا هو موضوع مقالنا عبر موقعكم «المفيد نيوز»، حيث نجيبكم فيه على كافة الاسئلة، ونلقي الضوء على كل ما يهمكم في هذا الموضوع ..فتابعو السطور القادمة بمزيد من الاهتمام.

ومع تطور الذكاء الاصطناعي، ظهرت طرق جديدة للأشرار والجماعات الإرهابية لنشر الفتنة وزعزعة استقرار المجتمعات. ولعل من أخطر الأدوات التي أصبحت في أيديهم هي تقنيات التزييف مثل التزييف العميق وتزييف الصور باستخدام خوارزميات متقدمة، مما يهدد مصداقية الأخبار وثقة الناس في المعلومات التي يتابعونها يوميا. .

من جانبه، أوضح المهندس محمد مغربي، مستشار التأمين والذكاء الاصطناعي، كيفية استخدام الذكاء الاصطناعي لنشر الفتن، لافتاً إلى أن هناك العديد من الأساليب أهمها تقنيات التزييف العميق، وتزييف الصور، والبوتات الإلكترونية، و وغيرها من الأمور، والتي نرصدها على النحو التالي:

1. فيديوهات التزييف العميق

وأوضح “مغربي” أن تقنية التزييف العميق هي تقنية تعتمد على الذكاء الاصطناعي لإنشاء مقاطع فيديو تظهر فيها شخصيات معروفة تقول أشياء أو تفعل أشياء غير حقيقية ولم تحدث أصلا، كما حدث في عام 2018، عندما تم ملفقة تم نشر فيديو للرئيس الأمريكي السابق باراك. ويهاجم أوباما الرئيس دونالد ترامب، حيث استخدم الفيديو تقنية التزييف العميق عبر خوارزميات GANs (شبكات الخصومة التوليدية)، وهو أمر يمكن أن يحدث ويمكن استغلاله إلى حد كبير الآن، خاصة في ظل تطور التكنولوجيا. الذكاء الاصطناعي

2. الصور المزيفة

وأشار “مغربي” أيضًا إلى خوارزميات الذكاء الاصطناعي مثل StyleGAN، التي يمكنها إنشاء صور لأماكن وأشخاص خياليين تبدو حقيقية للغاية، كما حدث في عام 2020، عندما تم تداول صور للمهاجرين في البحر الأبيض المتوسط ​​وهم يحملون أسلحة، وهي صور تم تدميرها بالكامل. ملفقة بهدف تأجيج مشاعر العنصرية. في أوروبا.

3. الروبوتات الإلكترونية (Bots)

أما روبوتات التواصل الاجتماعي فهي حسابات مبرمجة للنشر تلقائيا لنشر الشائعات على نطاق واسع، كما حدث في عام 2019، عندما تم اكتشاف شبكة حسابات على تويتر وفيسبوك مرتبطة بالجماعات الإرهابية في الشرق الأوسط تنشر أخبارا كاذبة عن حكومات المنطقة، بهدف زعزعة الاستقرار، بحسب “المغربي”.

4. الصوت الاصطناعي

هي تقنية تحويل النص إلى كلام باستخدام الذكاء الاصطناعي، مثل برنامج Lyrebird AI الذي يسمح بإنشاء تسجيلات صوتية ملفقة تبدو وكأنها لشخصيات مشهورة، مثل نشر تسجيل صوتي ملفق لرئيس الوزراء الكندي جاستن ترودو يقول تصريحات عنصرية وهي… أثارت انتقادات واسعة قبل كشف الحقيقة.

5. التلاعب بالأخبار

مثل استخدام تقنيات مثل معالجة اللغات الطبيعية (NLP) لكتابة مقالات مزيفة أو تشويه البيانات السياسية.

طريقة علمية لكشف التزوير باستخدام التكنولوجيا

وأوضح “مغربي” أنه مع تطور الذكاء الاصطناعي وأدوات تحليل البيانات، كان لا بد من الاعتماد على أساليب كشف التزوير، التي يمكنها فحص المستندات والصور والمعلومات بدقة عالية، وكشف التلاعب من خلال تحليل الأنماط والتغييرات الطفيفة، مما يوفر السرعة والكفاءة في كشف التزوير بكافة أشكاله. وهذا يشمل:

1. تحليل البيانات الوصفية

وقال استشاري التأمين والذكاء الاصطناعي، إن كل صورة أو مقطع فيديو يحتوي على بيانات وصفية تظهر معلومات مثل مكان وتاريخ التصوير. تساعد أدوات مثل ExifTool في اكتشاف أي تلاعب بالبيانات.

2. تقنيات الكشف عن التزييف العميق

مثل الخوارزميات المتخصصة مثل DeepFake Detection Models التي تعتمد على الشبكات العصبية لاكتشاف الأنماط غير الطبيعية في مقاطع الفيديو، مثل منصة Microsoft Video Authenticator التي تراقب أصغر التفاصيل التي قد تشير إلى التلاعب.

3. تحليل الإطارات

يتم مسح مقاطع الفيديو ضوئيًا إطارًا تلو الآخر لاكتشاف أي تشوهات في الإضاءة أو حركة الشفاه التي تشير إلى الاحتيال.

4. التحليل الطيفي

تستخدم أدوات مثل Adobe Photoshop Forensic Tools التحليل الطيفي لاكتشاف أي تعديلات في الصور، مثل الاختلافات في الإضاءة أو اللون.

5. التحقق من المصدر

استخدم أدوات مثل Google Reverse Image Search للبحث عن أصل الصورة ومعرفة ما إذا كانت قديمة أو مأخوذة من سياق مختلف.

  • أقسام تهمك:
  • عيادات المفيد ..للحصول على معلومات صحية موثوقة 
  • سيارات المفيد.. تحديث على مدار الساعة في عالم السيارات
  • أخبار الاقتصاد والبنوك وعالم المال والأعمال..لا تفوته
  • الإسلام المفيد .. للفتاوى والقضايا الشائكة ..هام
  • للمزيد : تابعنا هنا ، وللتواصل الاجتماعي تابعنا علي فيسبوك وتويتر .

    مقالات ذات صلة

    اترك تعليقاً

    لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

    زر الذهاب إلى الأعلى