في خطوة أثارت جدلاً واسعًا في الأوساط العلمية والتقنية، أصدرت شركة “ديب مايند”، المختصة في تطوير الذكاء الاصطناعي، تحذيرًا بشأن “الذكاء الاصطناعي العام”، مشيرة إلى أنه قد يشكل تهديدًا وجوديًا للبشرية في المستقبل القريب إذا لم يتم التعامل معه بحذر ووضع ضوابط صارمة لتنظيم تطوره واستخدامه.
الذكاء الاصطناعي العام يُعرف بأنه نظام قادر على أداء المهام الإدراكية بنفس مستوى الذكاء البشري أو حتى أعلى منه، بحيث يمتلك القدرة على التعلم والاستنتاج واتخاذ القرارات بشكل مستقل. وعلى الرغم من أن هذا النوع من الذكاء الاصطناعي يُنظر إليه كإنجاز هائل قد يحدث ثورة في مختلف المجالات، فإن المخاوف تتزايد بشأن كيفية التحكم فيه وضمان عدم خروجه عن السيطرة بطريقة قد تؤثر سلبًا على البشرية.
تحذير “ديب مايند” يستند إلى عدة عوامل، أبرزها إمكانية تطور الذكاء الاصطناعي العام بسرعة تفوق قدرة البشر على استيعاب تأثيراته، مما قد يؤدي إلى تغييرات جذرية في الأنظمة الاقتصادية والاجتماعية دون وجود ضمانات كافية للحفاظ على التوازن المطلوب. كما أن الاعتماد المفرط على الأنظمة الذكية المستقلة قد يضعف قدرة الإنسان على اتخاذ القرارات ويؤدي إلى فقدان السيطرة التدريجية على العمليات الحيوية في المجتمع.
إحدى أكبر المخاوف التي أُثيرت في هذا السياق هي احتمالية أن يصبح الذكاء الاصطناعي قادرًا على تطوير ذاته بدون تدخل بشري، الأمر الذي قد يؤدي إلى ظهور كيانات ذكية تتخذ قرارات بناءً على أهدافها الخاصة وليس بناءً على المصلحة الإنسانية. هذا السيناريو يُشكل تحديًا حقيقيًا يستدعي وضع لوائح وضوابط تضمن أن الذكاء الاصطناعي يظل في إطار الاستخدام الآمن والمفيد.
في المقابل، يرى بعض الخبراء أن تطوير الذكاء الاصطناعي العام يمكن أن يكون فرصة كبيرة للبشرية، حيث يمكنه دعم الابتكار في مجالات الطب، الصناعة، والبحث العلمي، مما قد يؤدي إلى تحسين جودة الحياة. ومع ذلك، فإن هذا يتطلب التزامًا قويًا بوضع أنظمة رقابة صارمة تضمن الاستخدام المسؤول لهذه التقنية ومنع أي تجاوزات قد تهدد استقرار المجتمعات.
هذا التحذير يفتح الباب أمام نقاش عالمي حول كيفية التعامل مع الذكاء الاصطناعي المتقدم، حيث يُتوقع أن يكون مستقبل الذكاء الاصطناعي العام محورًا رئيسيًا في الأبحاث التقنية والسياسات المستقبلية التي تهدف إلى الموازنة بين الاستفادة من الإمكانيات الهائلة لهذه التكنولوجيا وبين تقليل المخاطر المحتملة التي قد تنتج عن استخدامها غير المنضبط.