آخر الاخبارمكس

الأب الروحي للذكاء الصناعي يثير القلق!

استقال جيفري هينتون من شركة “غوغل”، وهي استقالة أخذت صدى واسعاً، وذلك بسبب مكانة الرجل في عالم التكنولوجيا، إذ يعتبر الأب الروحي للذكاء الصناعي.

وأوضح هينتون أنّ سبب استقالته لكي يكون مطلق الحرية في الإدلاء بآرائه حول تكنولوجيا الذكاء الصناعي دون أن ينعكس ذلك سلباً على شركة “غوغل”، وليس من أجل توجيه الانتقادات للشركة.

وأثارت تصريحاته كثيراً من المخاوف والتساؤلات وحتى الغموض بشأن الذكاء الصناعي التوليدي والمخاطر التي قد يفرضها على الإنسان وطبيعة حياته.

تابعنا عبر فيسبوك

وكان هينتون قد انضم إلى شركة “غوغل” عام 2013 بعد أن استحوذ عملاق التكنولوجيا ومحركات البحث على شركته الناشئة التي كانت تدعى ” DNNresearch”.

وشارك هينتون في تطوير خوارزمية تدعى ” backpropagation”، والتي تمكن الشبكات العصبية الرقمية من التعلم بكفاءة وتعديل معلماتها من خلال التدريب.

وقال في تصريحاته، أنّ واحدة من أبرز المخاوف تتعلق بالسرعة الكبيرة التي يتطور بها الذكاء الصناعي التوليدي، وأنّ الإنسان مسكوناً بالسرعة منذ قرون، حيث كشفت التكنولوجيا الحديثة عن نزعته للسرعة هذه مع تطورها المستمر، فيسعى دائماً لعمليات التسريع لاعتقاده أنّه كلما زاد من السرعة اقترب من المثالية.

وقبل أسابيع، أصدرت مؤسسة The Future of Life عريضة وقّع عليها عديد من كبار العلماء في الذكاء الصناعي وكبار التكنولوجيين من أمثال إيلون ماسك تدعو إلى ضرورة وقف تطوير الذكاء الصناعي التوليدي لمدة ستة أشهر حتى يتسنى للجهات المعنية دراسة هذه الحالة ومعرفة أوجه الضرر الرئيسية التي قد تفرضها على حياة الإنسان.

وتدخّل البيت الأبيض ودعا إلى اجتماع مع المديرين التنفيذيين لبعض أبرز الشركات التكنولوجية مثل غوغل و OPenAI لمناقشة المخاطر المتوقعة من الذكاء الصناعي وكيفية فرض تشريعات تنظيمية لتجنب الأضرار المحتملة.

وفي وقت سابق، اعترف سوندار بيتشاي، الرئيس التنفيذي لشركة “غوغل” بأنه لا يفهم تماماً كيفية عمل برنامج الذكاء الصناعي الجديد للشركة والذي يدعى Bard ، فهناك مكامن خلل تظهر بين الحين والآخر في أثناء استخدامه.

في السياق ذاته، ذكر جيمس مانيكا وهو المدير التنفيذي لقطاع التطوير التكنولوجي في “غوغل” أن برنامج Brad تعلم اللغة البنغالية، وعلى الرغم من أنه تدرّب عليها بشكل محدود جداً أصبح البرنامج قادراً على ترجمة كامل اللغة البنغالية وهو الأمر الذي ترك خبراء غوغل في حيرة من أمرهم إذ أظهر هذا المثال أن الذكاء الصناعي التوليدي قادر على أن يتعلم أشياء لم يكن مبرمجاً على معرفتها.

وطرح هينتون قضية أخرى لا تقل خطورة عن القضية السابقة ألا وهي إساءة استخدام تكنولوجيا الذكاء الصناعي من المجموعات الخبيثة والخارجة عن القانون.

شاهد أيضاً هل يمكن تعليم الروبوتات رفة العين؟

زر الذهاب إلى الأعلى