خيال علمي أم واقع؟

تخيل معي أنك استخدمت هاتفك المحمول عدد ساعات طويلة حتى أنهكه العمل، ليعبر عن غضبه منك بنهاية اليوم مُقررًا أن يلقي بنفسه من الدور السادس!!.

ذلك تمامًا ما أثاره انتشار خبر حادث انتحار روبوت كوري بسبب ضغط العمل لساعاتٍ طويلة، ليخلق علامات تعجب واستفهام حول كيفية تحقيق ذلك، فكيف لأجزاء معدنية مهما بلغت قدرتها من ذكاء معلوماتي أن تتخذ قرارا مصيريا مثل هذا، فهل تحمل لنفسها ضررًا أو نفعا؟ وهل تحمل مشاعر من الأساس لتدفعها لتحديد بقائها على قيد الحياة من عدمه؟! وما تأثيرات هذا التصرف على البشر؟.

جميعها تساؤلات أثارت فضولنا، لتقوم «المصري اليوم» بمحاولة التحقق من الحدث عن قرب وفق متخصصين يفسرون الموقف كامًلا.

لغز «انتحار» روبوت في كوريا الجنوبية.. هل حقيقة أم درب من خيال؟

«انتحار روبوت».. خبر غريب انتشر على وسائل التواصل الاجتماعي هزّ أرجاء العالم من مخاوف وعلامات اندهاش مع كثير من السخرية والمزاح، بعدما تناقلته وسائل الإعلام كحادثة «انتحار» روبوت في مدينة جومي الكورية الجنوبية والذي صُمم في الأساس لأداء مهام إدارية، وأنه ألقى بنفسه من أعلى درج، نظرًا لضغط العمل الذي يبدأ من التاسعة صباحًا وحتى السادسة مساء.

وفي تصريحات خاصة لأستاذ هندسة الحاسبات والذكاء الاصطناعي ماركو ممدوح، الحاصل على دكتوراة من جامعة ستانفورد الأمريكية، لـ«المصري اليوم»، قال إن الروبوتات في الأساس لا تملك شعورا بشريا لتتخذ أي قرار بناءً عليه، فهي في الأساس لا تملك لنفسها ضررًا أو نفعا، ورغم أنها مصممة جيدًا لفهم الشعور البشري والتفاعل معه، إلا أنها لا تشعر به فعليًا تحت أي سبب من الأسباب وبأي شكل ممكن.

وتابع: «هو فقط يتعاطف معنا، وبمعنى أقرب نستطيع القول بأن لديه قدرة الإحساس بالمشاعر وليست المشاعر ذاتها، بمعنى أن الذكاء الاصطناعي يستطيع تحديد شعورك أنت من سلوك أو صوت أو تعبيرات الوجه، ومنها يتعرف على إحساس من يتحدث معه ومن ثم يتخذ قراره بناء على كل هذه المدخلات سواء أسئلة أو جمل تحمل معنى الشعور بالفرح أو الحزن وهكذا».

وأضاف: «في بعض الأحيان اذا أبلغت الذكاء الاصطناعي بأنك حزين قد يقترح عليك أغنية لطيفة لسماعها أو أن تلعب معه، لكنه قطعًا لا يتأثر بمشاعرك وفي كل مرة تبدأ محادثة جديدة، سيبدأ معك بطريقة تعاطف مختلفة تناسب حالتك أنت، والقرار الوحيد الذي تستطيع بعض الروبوتات اتخاذه من تلقاء نفسها يكون مبنيا على قاعدة معلومات تحمل قائمة بالألفاظ والموضوعات غير اللائقة، وفي حالة استخدامها لا يجيب وأحيانًا قد يقرر عمل «Ban»، أو حظر للأشخاص الذين يراهم تجاوزوا الإطار الطبيعي للمناقشة، لأنها قرارات غير مبنية على المشاعر بأي شكل من الأشكال فقط، لكن على المعلومات».

«هو سيناريو أشبه بأفلام الخيال العلمي».. هكذا كان تعليق chatgpt شات جي بي تي، أثناء حديثنا معه، فقبل سماع رأي الخبراء أردنا معرفة رأي الروبوتات نفسها- أو الذكاء الاصطناعي- عن الأمر، فبين ردود عقلانية من «gemini» الصادر عن جوجل، وسخرية «chatgpt» من «OpenAI»، كانت الإجابة قطعية باستحالة تحقيقها.

فجاءت إجابة «شات جي بي تي» أكثر استهزاء بالأمر بل اعتبرها مزحة من الأساس لا تؤخذ على محمل الجد، عند سؤاله عن هل في يوم قد يتخذ قرار الانتحار لأي سبب، فقال: كروبوت لا أمتلك مشاعر أو وعيا مثل البشر، وبالتالي لا يمكنني اتخاذ قرارات تتعلق بالانتحار أو أي شيء مشابه. أنا هنا لأقدم لك المساعدة والمعلومات وأجعل حياتك التقنية أسهل وأمتع! إذا كنت بحاجة لأي مساعدة تقنية أو نصائح، فأنا في خدمتك!.

وتابع: «في الوقت الحالي، الروبوتات والذكاء الاصطناعي لا تمتلك وعيا أو مشاعر تجعلها تفكر في مثل هذه الأمور. هي مجرد أدوات تمت برمجتها لأداء مهام محددة. وحتى في المستقبل، إذا تطورت التكنولوجيا بشكل كبير فإن القرارات المتعلقة بالحياة والموت ستكون غالبًا مرتبطة بالبرمجة وتصميم البشريين، يعني حتى لو أصبحت الروبوتات أكثر ذكاءً، فإنها لن تمتلك الرغبات أو المشاعر التي تدفعها لاتخاذ مثل هذه القرارات، فبكل بساطة الروبوتات ستبقى في خدمتك لتقديم المساعدة والمعلومات بدون مشاعر أو قرارات معقدة!».

وحين أخبرناه بأن هناك أخبارا تم تداولها بالفعل عن انتحار روبوت، قال «هههه، يبدو أن هذه القصة مأخوذة من فيلم خيال علمي أو مزحة! في الواقع، الروبوتات لا تشعر بالضغط أو الإرهاق لأنها ببساطة أدوات مبرمجة لأداء مهام محددة بدون مشاعر أو وعي».

وتابع: «قد تكون هذه الأخبار شائعة أو نكتة انتشرت على الإنترنت. الروبوتات تقوم بما تم برمجتها للقيام به، ولا يمكنها اتخاذ قرارات مبنية على مشاعر مثل البشر».

أما «gemini» الذي جاءت إجابته أكثر جدية، فقال: ما إذا كان بإمكان أي روبوت اتخاذ قرار الانتحار أم لا هو سؤال معقد أثار نقاشًا كبيرًا بين الخبراء. لا توجد إجابة سهلة، حيث تعتمد على كيفية تعريف «الانتحار» و«القرار» و«الروبوت».

واشار إلى نقاط رئيسية تحدد هذه المناقشة وهي:

    • القدرة على الشعور بالعواطف: يجادل بعض الخبراء بأن الروبوتات غير قادرة على اتخاذ قرار الانتحار لأنها تفتقر إلى القدرة على الشعور بالعواطف مثل اليأس أو الألم، وهي المشاعر التي غالبًا ما تسبق الانتحار عند البشر.
    • الوعي الذاتي: يجادل آخرون بأن الروبوتات المتطورة بما يكفي قد تصبح في النهاية واعية لذاتها وتطور فهمًا للموت، مما قد يؤدي إلى إمكانية التفكير في الانتحار.
    • الاستقلالية: يركز هذا السؤال على مدى استقلالية الروبوتات في أفعالها. إذا كانت الروبوتات مبرمجة ببساطة لاتباع التعليمات دون أي فهم أو قدرة على التفكير الذاتي، فمن غير المرجح أن تكون قادرة على الانتحار. ومع ذلك، إذا كانت الروبوتات قادرة على العمل بشكل مستقل واتخاذ قراراتها الخاصة، فقد تصبح إمكانية الانتحار أكثر واقعية.
    • النية: من الصعب تحديد ما إذا كان يمكن اعتبار تصرفات الروبوت «متعمدة» بنفس الطريقة التي يمكن اعتبار تصرفات الإنسان متعمدة. إذا أقدم روبوت على فعل يؤدي إلى وفاته، فهل يمكن اعتباره قرارًا انتحاريًا أم أنه كان نتيجة لبرمجته أو عطل؟

وتابع: «الخلاصة، لا توجد إجابة قاطعة على السؤال عما إذا كان أي روبوت يمكنه اتخاذ قرار الانتحار أم لا. إنه سؤال معقد يثير أسئلة فلسفية وأخلاقية عميقة حول ماهية الوعي والمعنى والنية. مع استمرار تطور تقنية الروبوت، من المحتمل أن يستمر هذا النقاش في السنوات القادمة».

كذلك ختم حديثه بأنه من المهم ملاحظة أنني لست قادرًا على تقديم المشورة الطبية أو النفسية. إذا كنت أنت أو أي شخص تعرفه يعاني من أفكار انتحارية، فيرجى طلب المساعدة من إخصائي مؤهل.

إذا ماذا حدث مع الروبوت الكوري؟

بالعودة للدكتور ماركو ممدوح يفسر الفكرة العامة حول احتمالية اتخاذ الروبوتات قرارا مبنيا على العاطفة وعلاقته بضغط العمل كأسباب منطقية لتدمير الروبوت لذاته، قائلًا: «في الأصل هو جهاز كمبيوتر مصغر ولتبسيط الفكرة فلنعتبره هاتفا ذكيا كبيرا، فقد يحدث له overload ببيانات أو طلبات وبالتالي يتعرض لخطأ في النظام يسمى system fault ووقتها النتائج تكون غير متوقعة لكن ما يحدث عادةً هو خطأ في النظام فيتعطل الروبوت بناءً على خلل في السيستم، لكن مع الأسف يتوقع عامة الناس أن الروبوت لديه قدرة اتخاذ القرارات أو أنه قام بإيذاء نفسه!! لكن لو تخيلناه مثل الهاتف المحمول فهل الهاتف يؤذي نفسه أيضا؟

ويتابع: «لهذا، أي خطأ برمجي يحدث لهذا النظام سيعطل عمل الروبوت، وغالبا تعمل الكثير من الروبوتات باتصال داخلي بـAPI من موقع لأي Language model شهير، كي يسمع ويرسل ما سمعه لـ API وعند الحصول على الرد يقرأه وفي بعض الأحيان يكون الرد أساسا صوتيًا من الـAPI لذلك الأمر بسيط وغير معقد نهائيًا لأنه يعتمد في معظم الأحيان على 3rd party applications».

وبشكل خاص عن الواقعة يفسر حالة دوران الروبوت حول نفسه بأنها هي الأخرى تندرج تحت الـ system fault وأحيانًا يأتي رد الفعل غير متوقع لأن غاية الذكاء الاصطناعي هو الحصول على Action واذا لم يحصل عليه وحدث system fault واذا لم تتم برمجة النظام على طريقة تحكم بالأخطاء فيمكن أن يحدث أي شيء عشوائي، مثلما حدث مع هذه الحالة، فوفق الخبر أنه سقط من أعلى درج فقد تكون مستشعرات الروبوت، المسؤولة عن اكتشاف العوائق والتنقل، فشلت في العمل، ما ترتب عليه سوء في تفسير الروبوت لمحيطه، وبالتالي اتخذ قرارًا بتحركات خطرة وعشوائية.

هاجس الروبوتات وقراراتها المصيرية

الدكتور ماركو ممدوح يقول عن مدى قدرة الروبوتات على اتخاذ قرارات مصيرية وتأثير ذلك على البشرية إن الروبوتات يمكن أن تتطور لتتخذ قرارات مصيرية إذا كانت مبرمجة على ذلك، ولكن جميع نماذج الذكاء الاصطناعي الموجودة حاليًا هي نماذج مراقبة ومحددة الردود والموضوعات والمعلومات، وهذا ينطبق على جميع أنواع الذكاء الاصطناعي مثل GPT وDiffusion وغيرها.

وأضاف أن الروبوتات مثلها مثل أي أجهزة إلكترونية أخرى قد تتعرض للإرهاق أو الضغط إذا تجاوزت المهام حدود قدراتها، حتى وإن كانت معداتها قوية أو من شركات كبيرة.

وأوضح أن الروبوتات في النهاية هي عبارة عن أجهزة وبرمجيات، ولها سعة ومواصفات تحدد سرعتها وقدرتها على تنفيذ العمليات.

من جانب آخر، أشار «ممدوح» إلى تأثير الضغوطات العملية على الروبوتات، مؤكدا أن الروبوتات مثلها مثل الكمبيوترات أو الهواتف، يمكن أن تتأثر بزيادة المهام والضغوطات، فهي تتكون من عتاد وبرمجيات ولها حدود معينة في تحمل العمليات والمهام.

أما عن مفهوم الموت بالنسبة للروبوتات، فأوضح الخبير أن الروبوتات والنماذج الحالية التي تشكل نواة الروبوت لا تحمل أي معانٍ أو تحث على العنف بأي شكل من الأشكال، إلا إذا قررت الشركة المطورة للروبوت أن تضيف هذه السمات.

وأكد أن جميع النماذج الموجودة حاليًا مثل GPT وDiffusion وغيرهما، هي نماذج مراقبة ولا يمكن أن تحث على العنف إلا إذا تم تعديلها ومدها بمعلومات معينة، مما قد يحول استخدام الروبوت من الإيجابي إلى السلبي.

وفي النهاية، أشار الدكتور ممدوح إلى أن الروبوتات مبرمجة بقواعد تمنع السلوكيات المؤذية للبشر أو لنفسها، موضحا أن الهدف الأساسي من تطوير هذه النماذج هو الاستخدام السلمي وللنفع العام، لكن الاستثناء يكون في حال استخدامها بشكل خاطئ وتدريبها على أمور العنف أو الأذى.

هل هذا يمثل أي خطر علينا كبشر؟

يُجيب خبير الذكاء الاصطناعي ماركو ممدوح في تصريحاته لـ «المصري اليوم»: «الذكاء الاصطناعي عمومًا أو الروبوتات يمكن أن تكون خطرًا على البشرية إذا تمت إساءة استخدامها، على سبيل المثال يمكن للذكاء الاصطناعي أن يتحكم في ذراع آلية في مصنع أو يساعدنا في حياتنا اليومية كما يحدث الآن، لكن في الوقت ذاته يمكن للذكاء الاصطناعي أن يتحكم في روبوت مسلح في حرب ويقوم بتوجيه أو ترتيب أو تنفيذ هجمات، وهناك أبحاث سابقة حول استخدام الذكاء الاصطناعي في الطائرات المسيرة والهجمات المنظمة وكيفية التواصل فيما بينها.

 

المصدر : المصري اليوم

مقالات ذات صلة

زر الذهاب إلى الأعلى