مكالمة تُشبه صوت أحد الأحباء؟ فكّ رموز مخاطر احتيال استنساخ صوت الذكاء الاصطناعي | أخبار التكنولوجيا

[إعلان 1]
في عصر يوم هادئ في دلهي، رنّ هاتف لاكشمي تشاند تشاولا. ولأنها مكالمة من مجهول، كان تشاولا مترددًا، ومع ذلك أجاب. على الجانب الآخر من الخط، أخبر رجل يدّعي أنه شرطي تشاولا أن ابن أخيه، كابيل، قد أُلقي القبض عليه في قضية اعتداء جنسي. قال الشرطي: “سنُبلغ كابيل”. وبعد لحظات، سمع تشاولا صوت ابن أخيه المذعور والضعيف. أخبر كابيل تشاولا أنه بريء وأنه لا يدري ماذا يفعل. تولى الشرطي إدارة المكالمة وأخبر تشاولا أنه بإمكانهم إخفاء الأمر بدفع 70 ألف روبية للطرف الآخر مقابل عدم توجيه اتهامات.
تمكن تشاولا وزوجته سانتوش من جمع حوالي 50,000 روبية وتحويلها لمساعدة ابن أخيهما. في الوقت نفسه، حاولا التواصل مع والدي كابيل، لكنهما لم يكونا متاحين. لاحقًا، اتصل الشرطي مجددًا، مطالبًا هذه المرة بـ 200 ألف روبية. شعر الزوجان بوجود مؤامرة. تواصلا مجددًا مع عائلة كابيل. ولحسن حظهما، وجدا كابيل بأمان وفي منزله. لم يكن كابيل على علم بأي قضية أو مكالمة هاتفية من الشرطة، وأدرك الزوجان أنهما تعرضا للاحتيال.
استنسخ المتصلون صوت كابيل لخداع عائلته. يزداد شيوع استنساخ الأصوات بالذكاء الاصطناعي، حيث يستخدمه العديد من المجرمين لخداع المستخدمين الغافلين. لا يكتفي هؤلاء المحتالون بسرقة الأموال فحسب، بل يتلاعبون أيضًا بمخاوف الناس ونقاط ضعفهم باستخدام التكنولوجيا المتقدمة.
في حالة مماثلة، تلقى كي تي فينود، المقيم في مومباي، اتصالاً من شخص يدّعي أنه من السفارة الهندية في دبي. بعد ثوانٍ، سمع فينود صراخ ابنه أميت، الذي بدا عليه الخوف. قال أميت: “أرجوك، كفالني”. خوفاً من فقدان ابنه، لم يتردد فينود. أصر المتصل على أن يدفع فينود 80 ألف روبية فوراً. وبينما دفع فينود المبلغ، لم يدرك أنها عملية احتيال إلا بعد أن علم أن ابنه سالم في المنزل. تم توليد الصوت الذي سمعه خلال المكالمة باستخدام الذكاء الاصطناعي ليشبه صوت أميت. ورغم إبلاغ فينود عن الحادثة، إلا أن أثرها النفسي لا يزال قائماً.
اكتسب استنساخ الأصوات باستخدام الذكاء الاصطناعي زخمًا كبيرًا في السنوات القليلة الماضية. واليوم، يُجرى 23,000 بحث شهريًا حول استنساخ الأصوات باستخدام الذكاء الاصطناعي. ووفقًا لشركة AIPRM، المتخصصة في إشارات الذكاء الاصطناعي، كان استنساخ الأصوات باستخدام الذكاء الاصطناعي من أسرع عمليات الاحتيال نموًا في عام 2024، حيث لا يثق 70% من البالغين في قدرتهم على تمييز النسخة المستنسخة عن الصوت الحقيقي. ولعل هذا يُفسر كثرة عمليات الاحتيال باستنساخ الأصوات باستخدام الذكاء الاصطناعي في الآونة الأخيرة. يقول كريستوف سي سيمبر، مؤسس AIPRM: “يحتاج المحتالون إلى ثلاث ثوانٍ فقط من الصوت لاستنساخ صوت الشخص واستخدامه في مكالمة احتيال”.
حتى أبسط شيء، كتكرار عبارة “مرحبًا” أثناء مكالمة فارغة، قد يمنح المحتالين بيانات كافية لتقليد صوتك. الأمر بهذه السهولة، بل وخطير أيضًا، كما يرى ساجار فيشنوي، المؤسس المشارك لشركة Future Shift Labs وخبير الذكاء الاصطناعي والأمن السيبراني.
نصائح للتعرف على عمليات الاحتيال المتعلقة بالصوت باستخدام الذكاء الاصطناعي:
عادةً ما يدّعي المتصل أنه صديق، أو فرد من العائلة، أو زميل، أو شخص تعرفه. اطرح عليه سؤالاً يعرف إجابته وحده، أو ابتكر عبارة سرية لا يعرفها إلا أنت والمتصل. إذا لم يستطع الإجابة الصحيحة، فمن المرجح أنه محتال.
تستمر القصة أسفل هذا الإعلان
🎯 إذا كنت تسمع صوت صديقك أو أحد أحبائك لفترة وجيزة فقط، فقد يكون ذلك بمثابة علامة تحذير، حيث يستخدم المحتالون غالبًا استنساخ الصوت لفترة وجيزة، مع العلم أنه كلما طالت مدة استخدامه، زاد خطر اكتشاف المتلقي لذلك.
🎯 إذا تلقيت اتصالاً من رقم مجهول، فقد يكون ذلك مؤشراً قوياً على عملية احتيال، لأن عمليات الاحتيال الصوتي بالذكاء الاصطناعي غالباً ما تستخدم أرقاماً مجهولة لإجراء مكالمات غير مرغوب فيها. إذا كان المتصل يدّعي أنه شركة أو شخص تعرفه، فأغلق الخط واتصل به مرة أخرى باستخدام رقم معروف، إما من قائمة جهات اتصالك أو من الموقع الرسمي للشركة.
🎯 انتبه لما تشاركه. تجنب إرسال رسائل صوتية أو مقاطع فيديو شخصية إلى غرباء عبر الإنترنت، لأنه بمجرد نشر صوتك، يصبح من السهل إساءة استخدامه.
يقول ساجار فيشنوي: “عندما تتلقى مكالمة مشبوهة، ابقَ هادئًا. تحدث مع عائلتك عن رمز أو عبارة سرية لا يعرفها إلا أنت. إنها إحدى أبسط الطرق لتجنب عمليات الاحتيال الصوتية”.
تستمر القصة أسفل هذا الإعلان
شهدت عمليات الاحتيال باستخدام الذكاء الاصطناعي ارتفاعًا هائلاً في السنوات الأخيرة، ولكن قد يكون عام 2025 هو العام الأكثر خطورة حتى الآن، مع تطور تقنيات الذكاء الاصطناعي وتزايد تعقيد أساليب المحتالين. لذلك، يُعد فهم كيفية اكتشاف هذه العمليات وتجنب الوقوع ضحية لها أمرًا بالغ الأهمية لمنع الاحتيال والخسائر المالية. من الضروري اتباع النصائح المذكورة أعلاه وتوخي الحذر عند تلقي أي مكالمات أو رسائل نصية غير متوقعة تبدو “عاجلة” للغاية أو غير مريحة. ومع ذلك، قد يقع بعض الأشخاص، للأسف، في فخ المحتالين، كما أضاف سيمبر.
توصيات Cemper:
🎯سجّل شكوى: أبلغ عن عملية الاحتيال إلى جهة حكومية معنية بالاحتيال والجرائم الإلكترونية. سجّل شكوى على البوابة الوطنية للإبلاغ عن الجرائم الإلكترونية ( cybercrime.gov.in ) أو اتصل بخط المساعدة 1930. قدّم أكبر قدر ممكن من المعلومات حول عملية الاحتيال على الموقع الإلكتروني.
🎯أوقف المعاملات: قم بتجميد بطاقاتك المصرفية على الفور؛ فهذه خطوة سريعة وضرورية لضمان عدم تمكن المحتالين من الوصول إلى حساباتك المالية أو التقدم بطلب للحصول على قروض باسمك.
🎯تغيير كلمات المرور: تأكد من تغيير كلمات مرورك، خاصةً إذا كنت تستخدم نفس كلمات المرور لحسابات متعددة، وتأكد من أنها فريدة وقوية لجميع الحسابات. يُنصح أيضًا باستخدام المصادقة الثنائية أو متعددة العوامل لإضافة مستويات أمان إضافية.
تستمر القصة أسفل هذا الإعلان
🎯أبلغ عن عمليات احتيال الذكاء الاصطناعي: من الضروري الإبلاغ عن عمليات احتيال الذكاء الاصطناعي، حتى لو شعرت بالحرج أو اعتقدت أن المبلغ ضئيل جدًا بحيث لا يستدعي اتخاذ إجراء. مهما كان حجم عملية الاحتيال، فإن الإبلاغ عنها لا يفيدك فحسب، بل يساهم أيضًا في بناء بيانات حول عمليات الاحتيال، مما يسمح للسلطات باتخاذ إجراءات ضد المحتالين.
لا تنجح هذه الحيل بسبب إهمال الناس، بل لأن الثقل العاطفي الناتج عن سماع شخص عزيز في محنة قد يفوق المنطق. يستغل المحتالون هذا الأمر بدقة متزايدة. تستطيع أدوات الذكاء الاصطناعي الآن إعادة إنتاج نبرة الصوت والانفعالات، بل وحتى التوقفات، بدقة مذهلة، وكل ما تحتاجه هو مقطع قصير. هذا يُغير نظرتنا إلى الثقة والتحقق. من الناس العاديين إلى الشركات، نحتاج إلى قواعد جديدة للتعامل. قد تبدو عمليات إعادة الاتصال البسيطة وتأكيد الهوية والتحقق الإضافي غير مريحة، لكنها ستصبح ضرورية، كما يقترح أبورف أغراوال، المؤسس المشارك والرئيس التنفيذي لشركة SquadStack.
وفقًا لأغراوال، يُعدّ تحسين أدوات الكشف والضمانات في سير العمل الحرجة أمرًا ضروريًا، إلى جانب زيادة الوعي العام بشأن الأصوات المُولّدة بالذكاء الاصطناعي وعمليات انتحال الشخصية. “على وجه الخصوص، يجب على الشركات التي تُقدّم حلولًا لتجربة العملاء تعتمد على الذكاء الاصطناعي أن تُدرك أن مفتاح مكافحة عمليات الاحتيال الصوتي يكمن في الكشف الفوري والتحقق من الهوية متعدد الطبقات الذي يتجاوز المصادقة التقليدية. يُتيح لنا الذكاء الاصطناعي أدوات فعّالة، ولكنه يُخفّض أيضًا تكلفة الخداع. علينا مواكبة التطورات ليس فقط من الناحية التكنولوجية، بل أيضًا من الناحيتين العاطفية والاجتماعية.”
الجانب الآمن
مع تطور العالم، يتطور المشهد الرقمي أيضًا، ما يحمل معه فرصًا ومخاطر جديدة. يزداد المحتالون تعقيدًا، ويستغلون الثغرات الأمنية لمصلحتهم. في سلسلتنا المميزة، نتعمق في أحدث اتجاهات الجرائم الإلكترونية ونقدم نصائح عملية لمساعدتك على البقاء على اطلاع، آمنًا، ويقظًا على الإنترنت.
[إعلان 2]