“امال ابراهيم” تشارك في مؤتمر صناعة الإعلام والترجمة الإبداعية في عصر الذكاء الاصطناعي
علاء حمدي
شاركت الدكتورة امال ابراهيم في مؤتمر جامعة النهضة صناعة الإعلام والترجمة الإبداعية في عصر الذكاء الاصطناعي والتحويلات الرقمية بورقة العمل بعنوان “من يتحمل المسئوليةعن الاخطاءاو التضليل الناتج عن الذكاء الاصطناعي كيف يوثر من خلال الشائعات في الحياة السياسية والاقتصادية والاجتماعية”
تحمل المسؤولية عن الأخطاء أو التضليل الناتج عن الذكاء الاصطناعي تعتمد على عدة عوامل: المطورون والشركات: الشركات التي تطور وتبيع أنظمة الذكاء الاصطناعي تتحمل جزءًا كبيرًا من المسؤولية. يجب عليها التأكد من أن أنظمتها دقيقة وآمنة وتوفر معلومات صحيحة.
المستخدمون: الأفراد والشركات التي تستخدم الذكاء الاصطناعي في قراراتهم اليومية تتحمل أيضًا جزءًا من المسؤولية. يجب عليهم استخدام الأنظمة بحذر وتقييم مدى موثوقيتها. القوانين والتنظيمات: الحكومات تتحمل مسؤولية وضع القوانين والتنظيمات التي تضمن استخدام الذكاء الاصطناعي بشكل مسؤول وتحد من تأثيره السلبي.
تأثير الشائعات الناتجة عن الذكاء الاصطناعي:
في الحياة السياسية: يمكن للشائعات أن تؤثر على الانتخابات أو القرارات السياسية الهامة من خلال نشر معلومات مضللة، مما يؤدي إلى فقدان الثقة في المؤسسات السياسية وزيادة الانقسامات بين الأفراد. في الحياة الاقتصادية: يمكن للشائعات أن تؤثر على أسواق المال والاقتصاد من خلال نشر معلومات خاطئة تؤدي إلى تقلبات في أسعار الأسهم أو الثقة الاقتصادية، مما يسبب خسائر مالية كبيرة. في الحياة الاجتماعية: يمكن للشائعات أن تسبب اضطرابات اجتماعية من خلال نشر معلومات كاذبة تؤدي إلى توترات بين المجتمعات أو الجماعات المختلفة، مما يزيد من التفرقة والعداوة
كيفية استخدام الذكاء الاصطناعي كسلاح لحروب الجيل السابع
يمكن اعتبار الذكاء الاصطناعي كجزء من أسلحة الجيل السابع، حيث يستخدم في الحروب السيبرانية، وتأثيره يمكن أن يكون كبيراً في المجالات السياسية، الاقتصادية، والاجتماعية. يتضمن ذلك: الحروب السيبرانية: استخدام الذكاء الاصطناعي في الهجمات السيبرانية لتعطيل الأنظمة الحيوية، سرقة البيانات، أو نشر الفيروسات. التلاعب بالمعلومات: استخدام الذكاء الاصطناعي في نشر المعلومات المضللة أو الدعاية الموجهة بهدف التأثير على الرأي العام أو زعزعة الاستقرار السياسي والاجتماعي.
التحكم في الأسلحة الذكية: الذكاء الاصطناعي يمكن أن يستخدم في التحكم في الأسلحة المتقدمة، مثل الطائرات بدون طيار أو الصواريخ الذكية، مما يزيد من دقة وفعالية الهجمات. ماهي اهم اهداف استخدام الأخطاء والتضليل الناتج من الذكاء الاصطناعي يمكن أن يكون لأغراض متعددة، تختلف باختلاف الجهة المستخدمة والنوايا خلف ذلك
1. التأثير السياسي
تشويه السمعة: نشر معلومات مضللة عن مرشحين أو شخصيات سياسية للتأثير على الرأي العام والانتخابات.
التحريض: خلق توترات وصراعات داخل الدول أو بين الدول من خلال نشر معلومات مضللة
.
2. التحكم الاقتصادي
التلاعب بالأسواق: نشر أخبار كاذبة أو مضللة للتأثير على أسواق الأسهم والعملات.
الابتزاز المالي: استخدام الذكاء الاصطناعي لخلق فضائح أو تهديدات تهدف إلى الابتزاز المالي.
3. الأهداف العسكرية
التشويش: استخدام التضليل لإرباك العدو أو تشتيت انتباهه عن أهداف حقيقية.
الحرب السيبرانية: تعطيل البنية التحتية الحيوية أو الحصول على معلومات حساسة عبر هجمات سيبرانية.
4. الأهداف الاجتماعية
إثارة الفتن: خلق توترات بين فئات المجتمع أو تعزيز الانقسامات الاجتماعية من خلال نشر معلومات مضللة.
التأثير على الرأي العام: توجيه الرأي العام نحو قضايا معينة أو صرف الانتباه عن قضايا أخرى.
5. الأهداف التجارية
الإضرار بالمنافسين: نشر شائعات أو معلومات خاطئة للإضرار بسمعة الشركات المنافسة
الترويج المضلل: استخدام الذكاء الاصطناعي في حملات ترويجية مضللة لزيادة المبيعات.
6. الأهداف الشخصية
التشهير: نشر معلومات خاطئة أو مضللة للإضرار بأشخاص معينين.
الابتزاز: استخدام التضليل لابتزاز أفراد لتحقيق مكاسب شخصية.
وسائل استخدام الذكاء الاصطناعي في
التضليل: الشبكات الاجتماعية: استخدام الذكاء الاصطناعي لإنشاء وترويج محتوى مضلل على منصات التواصل الاجتماعي. الروبوتات (Bots): نشر معلومات مضللة عبر الحسابات الآلية . التزييف العميق (Deepfakes): إنشاء فيديوهات أو تسجيلات صوتية مزيفة تبدو حقيقية. في الحياة الاجتماعية: يمكن للشائعات أن تسبب اضطرابات اجتماعية من خلال نشر معلومات كاذبة تؤدي إلى توترات بين المجتمعات أو الجماعات المختلفة، مما يزيد من التفرقة والعداوة
ووجدت دراسة كتبها باحثون في جامعة نيويورك تحاول فهم كيفية تأثير الانتماء الحزبي على المعتقدات وانتشار المعلومات الخاطئة، أنّ “الناس كانوا أكثر استعدادًا لتصديق ونشر الأخبار المتماشية مع هويتهم السياسية”. كما وجدت دراسة أخرى عنوانها “لماذا نقع في فخ الأخبار المزيفة” أنّ قبول المعلومات المزيفة ناتج عن التحيزات المعرفية، مضيفة أنّ الانتماءات الحزبية أو التوجهات السياسية لها تأثير على ما يؤمن به الناس أو يرفضونه في الأخبار.
وشرح الأستاذ المشارك في مجال الرياضيات التطبيقية وبيولوجيا النظم في جامعة كولومبيا، كريس ويغينز، أنّ الناس يذهبون إلى منصات المعلومات لأسباب مختلفة، من بينها رغبتهم في إعادة تأكيد معتقداتهم الموجودة مسبقًا، والتواصل مع الأفراد المتشابهين معهم في التفكير، سعيًا نحو الاندماج الاجتماعي.
وأوضح ويغينز: “هناك حاجة للاندماج والشعور بهذا التواصل الاجتماعي مع الآخرين”، مضيفًا “ترى شخصًا وتتفق معه لأنّك قرأت محتواه من قبل، والأمر يشبه حقًا هذا الشعور بالاندماج، وكأنني جزء من مجموعة الأشخاص الذين يؤمنون بهذا الأمر”. يكون من السابق لأوانه التنبؤ بالآثار الدقيقة للذكاء الاصطناعي في نظام المعلومات المضللة، ومع ذلك، فمن الواضح أنّه بالإضافة إلى القصص التحذيرية، قد يكون الذكاء الاصطناعي مفيدًا للصحفيين ومدققي المعلومات الذي يكافحون زيادة المحتوى المزيف.
ويُعد قانون فرنانديز الأول في التكنولوجيا القائل إنّ “التكنولوجيا ليست جيدة وليست سيئة وليست حيادية”، منطقيًا. ويرى ويغينز أنّ “كل تكنولوجيا تفتح مجال الإمكانات للناس”، مختتمًا “سيستخدمها بعض الأشخاص من أجل الحقوق والعدل، وسيستخدمها البعض الآخر لفرض القمع والأذى”.