مع انتشار برامج وتطبيقات الذكاء الاصطناعي، تثور الكثير من علامات الاستفهام بشأن خطورته وما يمكن أن يمثله مما يعتبره البعض «تهديد وجودي» علي البشر.
 
في محاولة لتحديد الآثار التي يمكن أن تترتب على ظهورها وعلى عكس ما يخشاه البعض، توصلت دراسة حديثة إلي أن تطبيقات الذكاء الاصطناعي والنماذج اللغوية المتطورة مثل شات جي بي تي ChatGPT ربما لا تشكل تهديدا وجوديا حقيقيا للبشرية.
 
وأجرى باحثون من جامعة باث البريطانية وجامعة دارمشتات التقنية في ألمانيا تجارب لاختبار قدرة الروبوتات على إنجاز مهام لم يسبق أن واجهتها نماذج الذكاء الاصطناعي من قبل بما يسمى بـ«القدرات الناشئة».
 
ويشرح الباحثون، بحسب ما نقله موقع «Science Alert»، أن هذه الروبوتات تستطيع الإجابة على أسئلةحول المواقف الاجتماعية دون أن يتم تدريبها أو برمجتها بشكل صريح على القيام بذلك، وذلك نتيجة «التعلم من السياق».
 
ويقول الباحث في جامعة باث والمشارك في الدراسة، الدكتور هاريش تايار مادابوشي: «كان الخوف من أنه مع ازدياد حجم النماذج أكثر فأكثر، فإنها ستكون قادرة على حل مشاكل جديدة لا يمكننا التنبؤ بها حاليًا، مما يشكل تهديدًا بأن هذه النماذج الأكبر حجمًا قد تكتسب قدرات خطرة بما في ذلك التفكير والتخطيط».
 
إلا أن فريق البحث توصل من خلال آلاف التجارب إلى أن مزيج من الذاكرة والكفاءة والقدرة على اتباع التعليمات يمكن أن يفسر القدرات والقيود التي تظهرها هذه البرمجيات، وفقًا لموقع جامعة باث، حيث أنها تتمتع فقط بـ«قدرة سطحية على اتباع التعليمات والتفوق في إتقان اللغة».
 
 
وأكدت الدراسة أن هذه البرمجيات تفتقر إلى القدرة على إتقان أو اكتساب مهارات جديدة بشكل مستقل «دون تعليمات صريحة»، وهو ما يعني استمرار خضوعها للتحكم من قبل البشر وإمكانية التنبؤ بنشاطها.
 
وقد خلص فريق البحث إلى أنه يمكن الاستمرار في استخدام نماذج الذكاء الاصطناعي القابلة للتعلم، والتي يتم تدريبها على جمع بيانات أكبر من أي وقت مضى، دون مخاوف تتعلق بالسلامة.
 
ومن المرجح أن تولد هذه النماذج لغة أكثر تعقيداً وتصبح أفضل في اتباع التعليمات الواضحة والمفصلة.