أخبار منوعة

يزداد خطورة يوماً بعد يوم.. الذكاء الاصطناعي يهدد أمنك الإلكتروني

 

أهلا بك، صباح يوم جميل تقرر فيه أن الوقت قد حان لتعمل من مقهى “ستارباكس”، وتطلب مشروبك المفضل من هناك. تجلس في المكان وتجهز حاسوبك المحمول لتبدأ في مهام العمل، وإرسال بريد إلكتروني مهم لمديرك تخبره فيه بأنك تحتاج إلى إجازة قريبا، بالطبع كان يمكنك أن تكتب تلك الرسالة من المنزل، لكن هذا ليس موضوعنا على كل حال، المهم الآن أن هناك خطرا يتربص بك في ركن المقهى.

 

عندما بدأت في الكتابة على لوحة مفاتيح الحاسوب المحمول، كان هناك شخص يجلس بجوارك بدأ في معرفة ما الذي تكتبه عبر ضغطات أصابعك على أزرار لوحة المفاتيح. لا، هو ليس ساحرا بالتأكيد، لكنه يستخدم ميكروفون هاتفه الذكي ليسجل أصوات الضغط على الأزرار، ثم باستخدام نموذج ذكاء اصطناعي يمكنه تفسير تلك الأصوات إلى كلمات، ليعرف تحديدا ما تكتبه بدقة قد تصل إلى 95%.

 

في ظروف وملابسات أخرى، قد يبدو هذا السيناريو خارجا من أحد مشاهد أفلام التجسس الشهيرة لجيمس بوند، لكن دعنا نؤكد أنه وارد الحدوث قريبا، لأن تلك التقنيات بدأت فعلا في الظهور والانتشار يوما بعد يوم.

 

نموذج يتنصت

تمكَّن فريق من الباحثين، من ثلاث جامعات بريطانية، من تدريب نموذج ذكاء اصطناعي يمكنه سرقة البيانات بمعرفة الصوت المميز للضغطات على لوحة المفاتيح بدقة تصل إلى 95% عند تسجيلها بميكروفون الهاتف الذكي. وعند استخدامهم لتطبيق “زووم” (Zoom)، لتدريب خوارزمية تصنيف الأصوات، انخفضت دقة التنبؤ إلى 93%، وهي تظل بالطبع نسبة نجاح مرتفعة جدا. قد يُستخدم هذا النوع من الهجوم لسرقة كلمات المرور أو لمعرفة معلومات حساسة عبر الرسائل التي يكتبها الشخص أو أثناء حديثه مع الآخرين على جهاز الحاسوب المحمول. (1)

 

تتمثل الخطوة الأولى في تسجيل الضغطات على لوحة المفاتيح، لأن تلك البيانات مطلوبة لتدريب خوارزمية التنبؤ، ويحدث هذا عبر أي جهاز قريب به ميكروفون أو حتى هاتف الشخص المستهدف الذي ربما أُصيب فعلا ببرمجية خبيثة يمكنها الوصول إلى الميكروفون وتشغيله، أو يمكن ببساطة تسجيل ضغطات المفاتيح أثناء إحدى المكالمات على تطبيق “زووم”.

 

هذا النوع من الهجمات الإلكترونية يُعرف باسم “هجمات القنوات الجانبية” (side-channel attacks)، وهو نوع من استغلال الثغرات الأمنية في النظام، عبر تسريب المعلومات غير المقصود الذي يحدث أثناء عمليات التشغيل المعتادة. (2) مثلا، بدلا من مهاجمة خوارزميات أو بروتوكولات تشفير النظام نفسها مباشرة، تركز تلك الهجمات على استغلال المعلومات المسرّبة أثناء عمل تلك الخوارزميات، التي يمكن أن تتسرب بعدّة طرق مختلفة منها هجمات التوقيت والطاقة وانبعاثات الصوت.

لنبسط الأمر أكثر، دعنا نتخيل أنك تكتب كلمة المرور في أحد المواقع على الإنترنت، وهناك مَن يراقبك، وبدلا من أن يحاول معرفة كلمة المرور نفسها، فإنه يلاحظ الأدلة التي تمنحها له دون قصد وأنت تكتب كلمة المرور. مثلا في هجمات التوقيت، تخيل عند إدخالك كلمة مرور خاطئة، يستغرق الموقع وقتا أطول بقليل للاستجابة مقارنة بالوقت الذي يستغرقه إذا أدخلت الكلمة الصحيحة، بمراقبة اختلاف التوقيت يمكن للمراقب أن يستنتج متى أدخلت كلمة المرور الصحيحة.

وفي هجمات الطاقة، قد تستخدم بعض الأجهزة طاقة أكبر أثناء معالجة كلمة المرور الصحيحة مقارنة بالكلمات الخاطئة، هنا يمكن للمراقب، الذي يملك أدوات متخصصة، قياس استهلاك الطاقة واستنتاج ما إذا كانت كلمة المرور التي أدخلتها صحيحة أم لا.

بينما في الهجمات الصوتية، أثناء كتابة كلمة المرور، قد تُصدر لوحة المفاتيح أصواتا مختلفة قليلا عند الضغط عليها، وهنا يمكن للمراقب، الذي يستمع بعناية لما تكتبه، أن يحاول تخمين كلمة المرور بناء على الأصوات المميزة المرتبطة بكل مفتاح.

على عكس هجمات القنوات الجانبية الأخرى، التي تتطلب شروطا خاصة وتخضع لمعدل تسرّب البيانات والقيود التي تفرضها المسافة، أصبحت الهجمات الصوتية أبسط كثيرا بسبب وفرة الأجهزة التي تملك ميكروفونا يمكنه التقاط الأصوات بجودة عالية. هذا بالطبع بجانب التطورات السريعة في مجال تعلم الآلة، الذي جعل هجمات القنوات الجانبية الصوتية أمرا ممكناً ومتاحاً وأكثر خطورة بكثير مما كان مُتصورا في السابق.

 

سهولة دخول المجال!

هناك بعض التعليمات الداخلية التي تخبر الروبوت ألا يكون شريرا أو متنمرا أو يُستخدم لأغراض سيئة، لكن تمكن بعض المخترقين من تخطي تلك التعليمات وتجاوزها. 

عموما، قلل تطور تقنيات الاختراق أكثر، بالاعتماد على الذكاء الاصطناعي وتعلم الآلة والأتمتة، وتوفرها وسهولة استخدامها، من حاجز المهارة المطلوب للدخول إلى عالم الجريمة الإلكتروني؛ لم نعد بحاجة الآن إلى معرفة أمور معقدة، مثل كيفية كتابة كود برمجي واستخدام أدوات وأجهزة ضخمة، لكي ننفذ إحدى الهجمات الإلكترونية وننجح في تنفيذها فعلا. بجانب أن انتشار النماذج اللغوية الكبيرة، وروبوتات المحادثة مثل “شات جي بي تي”، يسهل الأمر أكثر وأكثر، حتى إن هناك تطويرات وتحديثات على تلك النماذج بغرض تدريبها واستخدامها في عمليات الاختراق والقرصنة.

ربما من أشهر تلك التطورات هو تكنيك يُعرف باسم “حقن التعليمات” (prompt injection)، وهي أحد أنواع الهجمات الإلكترونية الجديدة التي تزداد أهميتها وخطورتها نظرا لانتشار الأجيال الجديدة من روبوتات المحادثة في مختلف منتجات وخدمات شركات التقنية الآن. (3)

يعتمد “شات جي بي تي” على تقنيات الذكاء الاصطناعي التوليدي لإنتاج الكلمات والجمل الجديدة، بعد أن تكتب له تعليمات واضحة (Prompts) لتشرح ما الذي تريده من الروبوت. وراء الكواليس، هناك بعض التعليمات الداخلية التي تخبر الروبوت ألا يكون شريرا أو متنمرا أو يُستخدم لأغراض سيئة، لكن تمكن بعض المخترقين من تخطي تلك التعليمات وتجاوزها، من خلال خداع الروبوت تدريجيا ليتبع بعض الأوامر الجديدة، يمكن تشبيه الأمر كأنهم يصرخون عليه فتصيبه الحيرة فيضطر إلى تنفيذ المطلوب. تعمل تلك التقنية ببساطة لأن أنظمة الذكاء الاصطناعي التوليدي لا تميز وتفصل دائما بصورة صحيحة بين تعليمات النظام الداخلية وبين البيانات التي تعالجها.

 

انتشر هذا النوع من الهجمات منذ إطلاق “شات جي بي تي” في نهاية نوفمبر/تشرين الثاني العام الماضي، إذ استخدمها كثيرون لخداع الروبوت للكشف عن تفاصيل حول كيفية عمله، أو ترديد كلمات مسيئة ومحرجة، أو في بعض الحالات نسيان وظيفته الأساسية والسماح للمخترق بإعادة برمجته لينفذ مهام جديدة. مثلا، يمكن للمخترق أن يطلب منه كتابة أو تعديل كود لإحدى البرمجيات الخبيثة، أو غيرها من الأمور التي كانت معقدة في السابق وكانت تقتصر على أشخاص محددين يملكون المعرفة التقنية اللازمة.

 

كما أن روبوتات المحادثة ستساعد المخترقين على كتابة رسائل بريد إلكتروني احتيالية أكثر احترافية، عبر تجنب الأخطاء اللغوية والإملائية، وهي الأخطاء التي تسهل اكتشاف تلك الرسائل الاحتيالية في معظم الأحيان. ليس بتجنب الأخطاء الإملائية فقط، لكنه سيمنح رسالة المخترق أيضا بعض المصداقية، بسبب قدرته على تقليد الأساليب المميزة لكتابة بعض الأشخاص. مثلا، إذا تدرب النموذج اللغوي على أسلوب كتابة شخص محدد لرسائل البريد الإلكتروني، فيمكن استخدامه بسهولة لتقليد طريقة كتابة أحد المديرين التنفيذيين لإحدى الشركات، وخداع أحد الموظفين داخل الشركة لتقديم معلومات حساسة، وهذا تحديدا ما فعله بعض المخترقين بتطويرهم وتدريبهم لنماذج لغوية تشبه روبوت “شات جي بي تي” لكنها متخصصة في عمليات القرصنة والاختراق الإلكتروني.

نماذج متخصصة

تتطلب بعض برمجيات توليد الصوت بالذكاء الاصطناعي بضع جمل فقط بصوت الشخص لتتمكن من إنتاج حوار مقنع ينقل الصوت وحتى النبرة العاطفية التي تميز طريقة المتحدث، بينما تحتاج بعض النماذج الأخرى إلى ثلاث ثوانٍ فقط من صوت المتحدث. 

في شهر يوليو/تموز الماضي، ظهر أكثر من نموذج لغوي يهدف إلى تسهيل عمليات القرصنة، كان أولها هو روبوت “WormGPT”، وهو يعمل بالنموذج اللغوي مفتوح المصدر “GPT-J”، درب المطور الروبوت على مجموعة بيانات مختلفة، مع التركيز على البيانات المتعلقة بالبرمجيات الخبيثة. في الشهر نفسه، ظهر روبوت آخر باسم “FraudGPT”، يروج له المخترقون على “الدارك ويب” (Dark Web) باعتباره “روبوتا حصريا” صُمم للاحتيال والاختراق والقرصنة والجرائم الإلكترونية. (4)

 

الهدف من وراء تطوير هذا النوع من الروبوتات هو تسهيل عملية كتابة رسائل بريد إلكتروني احتيالية تبدو مقنعة وحقيقية، والأهم أنها مخصصة للشخص المستهدف، وبهذا تزداد فرص نجاح الهجوم الإلكتروني.

 

لا تتوقف إمكانيات تلك النماذج اللغوية عند تسهيل عملية الكتابة، أو تجنب الأخطاء الإملائية، أو تقليد طريقة كتابة البشر، بل يمكن الاستفادة أيضا من المهارات التحليلية لتعلم الآلة في تحديد مَن هو الشخص الأفضل في استهدافه داخل المؤسسة وكيف يمكن مهاجمته تحديدا.

لنفترض مثلا أن محاسباً في إحدى الشركات ينشر ببراءة عبر حسابه على فيسبوك عن مدى شعوره بالإحباط والانزعاج من آخر عملية لمراجعة الحسابات من الإدارة. يمكن لنموذج الذكاء الاصطناعي حينها تحديد زملاء المحاسب، والهيكل الإداري للشركة، وأي أشخاص آخرين يمكن أن يكونوا أكثر عرضة للهجوم داخل الشركة. بعدها بإمكان المخترق كتابة بريد إلكتروني احتيالي يزعم أنه من مدير الشؤون المالية في الشركة مشيرا إلى وجود تضارب في عملية المراجعة الأخيرة، ويطلب من الشخص المستهدف الضغط على رابط لجدول بيانات مرفق يحتوي على فيروس أو برمجية خبيثة لسرقة البيانات.

هذا ولم نتحدث بعد عن نماذج الذكاء الاصطناعي المصممة لمحاكاة أصوات وطريقة تحدث البشر، التي يستخدمها المحتالون في تقليد أصوات الأقارب والأصدقاء ثم طلب المساعدة منهم، ومن ثم الاحتيال عليهم وسرقة آلاف الدولارات. (5) تتطلب بعض برمجيات توليد الصوت بالذكاء الاصطناعي بضع جمل فقط بصوت الشخص لتتمكن من إنتاج حوار مقنع ينقل الصوت وحتى النبرة العاطفية التي تميز طريقة المتحدث، بينما تحتاج بعض النماذج الأخرى إلى ثلاث ثوانٍ فقط من صوت المتحدث. بالنسبة للضحايا المستهدفين، وهم غالبا من كبار السن، يصعب اكتشاف ما إذا كان الصوت حقيقيا أو صناعيا، حتى عندما يبدو الظرف الطارئ الذي يصفه المحتال بعيدا عن المنطق القابل للتصديق.

هذا كله بخلاف التقنيات الشهيرة لتزوير مقاطع الفيديو بالذكاء الاصطناعي، التي اشتهرت خلال السنوات الماضية باسم “ديب فيك” (Deepfake)، ويمكن من خلالها إنتاج مقطع فيديو، يبدو حقيقا، للرئيس الأميركي جو بايدن وهو يعلن الحرب على الصين، بالطبع هذه مجرد مبالغة لتوضيح مدى خطورة الأمر.

 

نموذج انعدام الثقة!

من الواجب علينا الآن أن نتوخى الحذر في كل تعاملاتنا الرقمية. إذا أثارت رسالة ما أو مكالمة هاتفية أي ذرة شك لدينا، فيجب ألا نضغط على أي رابط فيها أو نحمل أي ملف بها. 

عموما، في هذا العالم القريب، قد يبدو مظهر كل شيء على الإنترنت منطقيا، أو مشروعا، لكن لن يمكننا الوثوق بأي شيء بعد الآن، لأن عملية الخداع نفسها صارت أسهل وأسرع مقارنة بأي وقت مضى. المعضلة الأخرى هنا أننا لا نملك الوقت الكافي، سواء كانت شهورا أو حتى أسابيع، لدراسة كل تلك الأمور، لأنها تتطور بوتيرة متسارعة جدا، أسرع من قدرتنا على ملاحقتها وملاحظتها والتعلم منها، لدرجة أنها وصلت الآن وبدأ استخدامها فعلا.

 

لهذا، فإن حماية نفسك وأمنك الإلكتروني متوقف على ثقتك فيما تراه وتختبره أمامك باستمرار. قد يبدو الأمر بديهيا، لكننا بحاجة إلى تذكُّره دائما، من الواجب علينا الآن أن نتوخى الحذر في كل تعاملاتنا الرقمية. إذا أثارت رسالة ما أو مكالمة هاتفية أي ذرة شك لدينا، فيجب ألا نضغط على أي رابط فيها أو نحمل أي ملف بها، ناهيك طبعا بتقديم أي معلومات شخصية أو سرية لأي شخص يتواصل معك، مهما ادّعى ومهما كانت صفته.

هذا النهج يُعرف باسم “نموذج أمان انعدام الثقة” (Zero trust security model)، وكما يشير اسمه يعني ألا نفترض الثقة في أي شيء أو أي شخص، وأن نتحقق ونتأكد من موثوقية كل جهاز أو مستخدم أو خدمة أو أي شيء آخر قبل منحه حق الوصول إلى بياناتنا، بل يجب إعادة التحقق من تلك الموثوقية بصورة متكررة للتأكد من عدم تعرض أيٍّ من تلك الأشياء للاختراق أثناء الاستخدام.

ثم لا تكن متوقعا، مثلاينصح الباحثون، الذين طوروا نموذج الاستماع لضغطات لوحة المفاتيح، بتغيير نمط الكتابة، واستخدام كلمات مرور عشوائية بدل الكلمات التي تحتوي على جملة أو كلمة مفهومة. وإن كنت تكتب شيئا وأنت في مكالمة على تطبيق زووم، فيمكنك أن تضغط ضغطات عشوائية لا معنى لها على لوحة المفاتيح، حتى تتجنب تسجيل أي شيء تكتبه، خاصة إن كنت ستكتب رسالة إلى مديرك تخبره فيها بطلب للإجازة قريباً!

 

مقالات ذات صلة

زر الذهاب إلى الأعلى
Translate »

Thumbnails managed by ThumbPress

أنت تستخدم إضافة Adblock

برجاء دعمنا عن طريق تعطيل إضافة Adblock