أخبار منوعة

دعوات من خبراء الذكاء الاصطناعي لمزيد من تنظيم هذه التكنولوجيا

وقالت المجموعة في الرسالة التي جمعها أندرو كريتش الباحث بجامعة كاليفورنيا في بيركلي وأحد خبراء الذكاء الاصطناعي “اليوم، غالبا ما يتضمن التزييف العميق صورا جنسية أو احتيالا أو معلومات مضللة سياسية. وبما أن الذكاء الاصطناعي يتقدم بسرعة ويجعل إنشاء التزييف العميق أسهل بكثير، فإن هناك حاجة إلى ضمانات”.

والتزييف العميق عبارة عن صور وتسجيلات صوتية ومقاطع فيديو واقعية ولكنها ملفقة أُنشئت بواسطة خوارزميات الذكاء الاصطناعي، وقد جعلت التطورات الحديثة في التكنولوجيا تمييزها عن المحتوى الأصلي أمرا بالغ الصعوبة.

وتقدم الرسالة -التي تحمل عنوان “تعطيل سلسلة توريد التزييف العميق”- توصيات بشأن كيفية تنظيم التزييف العميق، بما في ذلك التجريم الكامل للمواد الإباحية العميقة المتعلقة بالأطفال، وفرض عقوبات جنائية على أي فرد يقوم عن عمد بإنشاء أو تسهيل انتشار التزييف العميق الضار، ومطالبة شركات الذكاء الاصطناعي بمنع منتجاتهم من إنشاء صور مزيفة ضارة.

ووقع على الرسالة -حتى صباح أمس الأربعاء- أكثر من 400 شخصية من مختلف الصناعات، بما في ذلك الأوساط الأكاديمية والترفيهية والسياسية.

وكان من بين الموقعين ستيفن بينكر أستاذ علم النفس بجامعة هارفرد، وجوي بولامويني مؤسس رابطة العدالة الخوارزمية، ورئيسا إستونيا السابقين، وباحثون في غوغل، وباحث في شركة ديب مايند الجديدة، وباحث من أوبن إيه آي.

ومنذ أن كشفت ” أوبن ايه آي” المدعومة من  مايكروسوفت  عن ” شات جي بي تي ” أواخر عام 2022، والتي أذهلت المستخدمين من خلال إشراكهم في محادثات شبيهة بما يقوم به الإنسان وأداء مهام أخرى، كان ضمان عدم إلحاق أنظمة الذكاء الاصطناعي الضرر بالمجتمع أولوية بالنسبة للمنظمين.

وهذه الرسالة ليست الأولى، فقد كانت هناك تحذيرات متعددة من أفراد بارزين بشأن مخاطر الذكاء الاصطناعي، ولا سيما رسالة وقعها إيلون ماسك العام الماضي دعت للتوقف 6 أشهر في تطوير أنظمة ذكاء اصطناعي أقوى من نموذج “جي بي تي 4” الخاص بشركة “أوبن إيه آي”.

المصدر : رويترز

مقالات ذات صلة

زر الذهاب إلى الأعلى
Translate »

Thumbnails managed by ThumbPress

أنت تستخدم إضافة Adblock

برجاء دعمنا عن طريق تعطيل إضافة Adblock