عندما أطلقت OpenAI أداتها الرائدة “ChatGPT” في نوفمبر/تشرين الثاني 2022 ، تغيرت ملامح العالم إلى الأبد وأدركنا أن ثورة الذكاء الاصطناعي أصبحت وشيكة.
والجدير بالذكر أن تطبيق الذكاء الاصطناعي ساهم في عدد من التطورات التكنولوجية ، مثل تطوير رقاقات الكمبيوتر الحديثة والوسائط التوليدية وغير ذلك.
ومع ذلك ، لا يشعر الجميع بالحماس تجاه الذكاء الاصطناعي، فقد يراها البعض على أنها سيف ذو حدين.
وفي الوقت نفسه، أصبح الذكاء الاصطناعي أداة مفيدة للكثيرين. من مصممي الجرافيك الذين يرغبون في تعديل التصميمات بسرعة ، إلى الكتاب الذين يبحثون عن عناوين إبداعية وبرامج جدولة الذكاء الاصطناعي ، من الصعب إنكار أن الذكاء الاصطناعي لديه الكثير من الاستخدامات الإبداعية والعملية.
ولكن عند استخدامه بشكل غير صحيح أو لأسباب خاطئة ، يمكن أن يكون له عواقب وخيمة.
خذ على سبيل المثال المحامين اللذين استخدما ChatGPT للبحث القانوني أثناء تحضير ملف المحكمة. انتهى كلاهما بالاستشهاد بقضايا المحكمة السابقة التي تم اختلاقها بالكامل.
والجدير بالذكر أن مؤسس OpenAI ، Sam Altman ، وغيره من “عرابي الذكاء الاصطناعي” لديهم مخاوف جدية بشأن مستقبل الذكاء الاصطناعي.
ومع ذلك ، فإن القضايا القانونية المزيفة والمعلومات غير الدقيقة ليست سوى غيض من فيض.
وفي ضوء ذلك، نورد لكم فيما يلي الأضرار المرتبطة بالذكاء الاصطناعي وكيف يمكن استخدامه في عمليات الاحتيال والاحتيال والأنشطة الضارة الأخرى.
1. استنساخ الصوت
يمكن للبرامج التي تعتمد على الذكاء الاصطناعي أخذ عينات من صوت أي شخص وإعادة إنشائها بشكل مثالي تقريباً ، باستخدام عبارات شائعة مع مطابقة نغمة وحتى لهجة العينات الأصلية.
وتم بالفعل استخدام استنساخ الصوت بالذكاء الاصطناعي في عدد من الجرائم المالية.
فعلى سبيل المثال ، يمكن أن يتجاوز استنساخ الصوت أنظمة مصادقة كلمة المرور الصوتية للمؤسسات المالية ، مما يسمح للمحتالين بالوصول إلى الحسابات المصرفية الخاصة.
وفي ولاية أريزونا الأمريكية ، استخدم أحد المحتالين الذكاء الاصطناعي للاتصال بأحد الأهالي أثناء انتحال شخصية طفلهم. وأقنع المحتال الوالد بأن طفله قد تم اختطافه وأنه في خطر جسيم قبل أن يطالب بفدية قدرها مليون دولار.
2. ال”Deep fakes” وانتحال الشخصية
“التزييف العميق” أو ما يُعرف بال”Deep fakes” عبارة عن مقاطع فيديو يتم إنشاؤها بواسطة الكمبيوتر ويمكن استخدامها لانتحال شخصية شخص ما ونشر معلومات مضللة.
وعلى الرغم من انتشار هذه التقنية على الإنترنت لسنوات ، إلا أنها لم تكن الأكثر واقعية ، ويمكن عند التدقيق عن كثب أن تفرق بين الفيديو الحقيقي و ال”Deep fakes”.
ولكن مع استنساخ الفيديو والصوت الذي تم إنشاؤه بواسطة الذكاء الاصطناعي ، أصبحت ال”Deep fakes” أكثر واقعية من أي وقت مضى.
ويستخدم بعض مستخدمي YouTube ذوي الحيلة ومنشئي الدورات التدريبية عبر الإنترنت التكنولوجيا لمساعدتهم على إنتاج المحتوى. ومع ذلك ، يمكن أن يكون هناك العديد من الأشخاص الذين يستخدمون التكنولوجيا بشكل ضار ، مما يؤدي إلى إنشاء صور مزيفة للمشاهير وشخصيات بارزة أخرى قد تضر بسمعتهم.
3. القرصنة الآلية
تعد كتابة الأكواد البرمجية أحد أكثر التطبيقات العملية للذكاء الاصطناعي. حيث يمكن للذكاء الاصطناعي إنشاء برامج كاملة في جزء صغير من الوقت الذي يستغرقه مبرمج للقيام بذلك يدوياً. ويمكن للذكاء الاصطناعي أيضاً تدقيق آلاف أسطر التعليمات البرمجية في ثواني معدودة لتحديد الأخطاء.
ويمكن أيضاً استخدام الذكاء الاصطناعي للقرصنة الآلية. حيث يقوم القراصنة باستخدام أدوات مثل ChatGPT ، على سبيل المثال ، لكتابة تعليمات برمجية ضارة أو برامج ضارة.
4. الدردشة والخصوصية
في الآونة الأخيرة ، كان هناك بعض القلق بشأن استخدام روبوتات المحادثة عندما يتعلق الأمر بالوصول إلى البيانات الخاصة. ونظراً لأن روبوتات المحادثة مثل ChatGPT لا تزال في مرحلة “الاختبار” الخاصة بها ، يتم تسجيل المحادثات واستخدامها لتحسين دقتها وبناء الجملة.
وعندما ينشئ المستخدمون حساباً لدى OpenAI أو يستخدمون Bing Chat ، فهم يوافقون على أنه يمكن استخدام بياناتهم لأغراض التطوير. لذلك يجب على المستخدمين عدم مشاركة أي شيء لا يريدون تسجيله.
وفي أوائل أبريل/نيسان من هذا العام ، أطلق مفوض الخصوصية الفيدرالي الكندي تحقيقاً في ChatGPT. ويعتمد على ادعاء بأن الشركة تجمع البيانات الشخصية وتستخدمها دون موافقة المستخدم.