عاجل
صندوق الاستثمارات السعودية العامة يستحوذ على أكبر شركة رائدة إقليمياً في مجال البنية التحتية بقطاع الاتصالات         مطارات المملكة تُسجل 12.50 مليون مسافر دولي ومحلي خلال شهر رمضان وعطلة عيد الفطر         بسبب انتهاك حقوق الإنسان، واشنطن تدرس فرض عقوبات على وحدات جديدة في جيش الاحتلال         ترقب لحكم قضائي يحسم مصير انتخابات نادي الزمالك         الكهرباء: 42% زيادة في مشاركة مصادر الطاقة المتجددة بحلول 2030         نظرية علمية تزعم: الكائنات الفضائية تتنقل عبر النيازك         زيكو: صلاح من أفضل لاعبي العالم حاليًا.. وأنصحه بالبقاء مع ليفربول         سعر الدولار اليوم الإثنين في البنوك والسوق السوداء 22 – 4 – 2024         هيئة التراث السعودي تعلن اكتشاف دلائل على استيطان بشري منذ العصر الحجري الحديث في أحد كهوف المدينة المنورة         نيابةً عن سمو وزير الخارجية.. نائب وزير الخارجية يشارك في مؤتمر باريس حول السودان         الفيلم السعودي “نورة” ضمن البرنامج الرسمي لمهرجان كان السينمائي 2024         سمو وزير الخارجية يبحث مع نظيريه الأمريكي والإيراني تطورات الأوضاع في المنطقة وجهود احتواءها         ضبط رجل أعمال قطري هارب من 142 سنة سجنًا بالشيخ زايد         التحقيق في إطلاق النيران بين بلطجية بزعامة موظف بحي الهرم         كم يوم باقي على عيد الفطر 2024.. الإفتاء تستطلع هلاله الاثنين وهذه مواعيد صلاته        

هل يمكن منع الذكاء الاصطناعي من انتحال هوية الأفراد؟

هل يمكن منع الذكاء الاصطناعي من انتحال هوية الأفراد؟

وكالات

تتزايد حالات انتحال الشخصيات حول العالم، اعتماداً على تقنيات الجيل الجديد من الذكاء الاصطناعي، فهذه التكنولوجيا وفّرت للمحتالين أدوات متطورة، تسمح بانتحال هوية الأفراد بدقة غريبة، وتمنحهم القدرة على استنساخ أصواتهم بشكل غير مسبوق، مما يجعل من عمليات الاحتيال أكثر جدوى من السابق.

وهذا الجانب المظلم من الذكاء الاصطناعي التوليدي، أثار المخاوف من احتمال إساءة استخدام هذه التكنولوجيا، ودفع لجنة التجارة الفيدرالية الأميركية للتحرك، عبر وضع قواعد جديدة، تهدف إلى منع الذكاء الاصطناعي من انتحال الشخصيات ومعاقبة الجهات التي تقوم بهذا الأمر.

قواعد تردع الذكاء الاصطناعي

وبحسب بلومبرغ، فقد وضعت لجنة التجارة الفيدرالية الأميركية، قاعدة اقتراحات جديدة، ستدخل حيّز التنفيذ قريباً، هدفها المساعدة على حظر عمليات الاحتيال، التي تتم من خلال انتحال الذكاء الاصطناعي، لهوية الحكومة والشركات الأميركية، على أن تطبق هذه الاقتراحات في مرحلة لاحقة، على عمليات انتحال الذكاء الاصطناعي لهوية الأفراد.

كما تسعى اللجنة للحصول على اقتراحات وتعليقات من الجهات المختصة، حول ما إذا كان ينبغي للقواعد الجديدة، أن تعلن أنه من غير القانوني لشركات الذكاء الاصطناعي، أن تقدم سلعاً وخدمات يمكن استخدامها في انتحال الشخصيات والإضرار بالمستهلكين.

وقالت لجنة التجارة الفيدرالية الأميركية، إنها إتخذت هذا الإجراء في ضوء تزايد الشكاوى، من عمليات الاحتيال بانتحال الشخصيات التي تتم عبر برامج مدعومة بالذكاء الاصطناعي، فضلاً عن غضب المستهلكين، من الأضرار التي لحقت بهم جراء هذه العمليات، مشيرة إلى أن القواعد الجديدة من شأنها أن تساعد في ردع الاحتيال وتأمين التعويض للجهات المتضررة.

وكشفت اللجنة أن عمليات الاحتيال بانتحال هوية الحكومة والشركات الأميركية، كلّفت المستهلكين مليارات الدولارات في السنوات الأخيرة، حيث زادت نسبة هذه العمليات بشكل كبير في عام 2023.

G&K: الذكاء الاصطناعي دفع شركات التكنولوجيا لتنظيم عملياتها

سبب ارتفاع عمليات انتحال الشخصيات

ويقول الخبير في التحول الرقمي فريد خليل، في حديث لموقع “اقتصاد سكاي نيوز عربية”، إن عدد عمليات انتحال الشخصيات من خلال تقنية التزييف العميق، زاد 10 أضعاف تقريباً في العالم خلال عام 2023، وهذا الأمر يعود لسبب أساسي، يتمثل بتطور الذكاء الاصطناعي بشكل سريع جداً، لافتاً إلى أن الذكاء الاصطناعي يشكّل تكنولوجيا مفتوحة المصدر، وهذا ما يجعلها متاحة لجميع الأشخاص، ومع استثمار وتطوير عدد كبير من الأشخاص لهذه التكنولوجيا، نجد أن البعض منهم أساء استخدامها وهو ما أدى للمشاكل التي تظهر حالياً.

ويلفت خليل إلى أن عمليات انتحال الشخصيات عبر أدوات الذكاء الاصطناعي، التي حدثت في الآونة الأخيرة كانت خطيرة جداً، فمثلاً قام أحد الموظفين بشركة في هونج كونج، بتحويل مبلغ 25 مليون دولار إلى جهات خارجية، بناءً على طلب المدير المالي للشركة، ليتبين له لاحقاً أنه وقع ضحية عملية سرقة محترفة، تم خلالها اللجوء إلى تقنية التزييف العميق، حيث تكمن المفارقة في أن الموظف شعر بالريبة عند تلقيه رسالة بريدية، تطالبه بتحويل هذا المبلغ الكبير، ولكنه بعد أن أجرى مكالمة فيديو مع المدير المالي وموظفين آخرين في الشركة، وتأكد من طلبهم قام بتحويل المبلغ، ليتبين لاحقاً أن المكالمة كانت مزيفة بالصوت والصورة عبر تقنية التزييف العميق.

مقالات ذات صلة

زر الذهاب إلى الأعلى