logo
تكنولوجيا

هل يهدد الذكاء الاصطناعي البشرية؟ قادة التكنولوجيا ينقسمون

هل يهدد الذكاء الاصطناعي البشرية؟ قادة التكنولوجيا ينقسمون
تاريخ النشر:4 سبتمبر 2023, 02:00 م
ينقسم قادة الذكاء الاصطناعي حول أي من مخاطر التكنولوجيا هو الأكثر رعباً.
ويقول المعسكر الأول، والذي يضم بعضاً من كبار المسؤولين التنفيذيين ممن يقومون ببناء أنظمة الذكاء الاصطناعي المتقدمة، إن ابتكاراته يمكن أن تؤدي إلى كارثة. وفي المعسكر الآخر، يقول العلماء إن القلق يجب أن يركز في المقام الأول على كيفية تطبيق تقنيات الذكاء الاصطناعي في الوقت الحالي وكيف يمكن أن تسبب ضرراً في حياتنا اليومية.

داريو أمودي، الرئيس التنفيذي لشركة تطوير الذكاء الاصطناعي "أنثروبيك" (Anthropic)، ضمن المجموعة التي تحذر من الخطر الوجودي، وشهد أمام الكونغرس هذا الصيف بأن الذكاء الاصطناعي يمكن أن يشكل مثل هذا الخطر على البشرية.

وقام سام ألتمان، رئيس شركة "أوبن إيه آي" (OpenAI) التي أطلقت "شات جي بي تي" (ChatGPT)، بجولة حول العالم هذا الربيع قائلًا، من بين أمور أخرى، إن الذكاء الاصطناعي قد يتسبب في يوم من الأيام في ضرر جسيم أو ما هو أسوأ.

وقال إيلون ماسك في إحدى الفعاليات التي نظمتها صحيفة وول ستريت جورنال في شهر مايو/أيار إن "فرصة الذكاء الاصطناعي في إبادة البشرية ليست معدومة" - قبل وقت قصير من إطلاق شركته الخاصة في مجال الذكاء الاصطناعي.

ومن المتوقع أن يحضر ألتمان وماسك وغيرهما من كبار المسؤولين التنفيذيين في مجال الذكاء الاصطناعي الأسبوع المقبل الاجتماع الأول في سلسلة من الاجتماعات المغلقة حول الذكاء الاصطناعي، والتي يعقدها زعيم الأغلبية في مجلس الشيوخ الأميركي تشاك شومر (ديمقراطي من نيويورك) للنظر في موضوعات تشمل "السيناريوهات الكارثية".

ويصف المعسكر الآخر من علماء الذكاء الاصطناعي هذه التحذيرات بأنها إلهاء يغذيه الخيال العلمي، أو حتى حيلة تسويقية ضارة، ويقولون إن شركات الذكاء الاصطناعي والجهات التنظيمية يجب أن تركز مواردها المحدودة على التهديدات الحالية والوشيكة للتكنولوجيا، مثل الأدوات التي تساعد في إنتاج معلومات مضللة قوية حول الانتخابات أو الأنظمة التي تضخم تأثير التحيزات البشرية.

ويشتد النزاع في الوقت الذي تحاول فيه الشركات والحكومات في جميع أنحاء العالم تحديد الموارد والاهتمام بطرق تعمل على تعظيم الفوائد وتقليل الجوانب السلبية للتكنولوجيا التي يُنظر إليها على نطاق واسع على أنها من المحتمل أن تغير العالم.

وقال نيكولاس ميالي، المؤسس المشارك لـ "جمعية المستقبل"، وهي مؤسسة بحثية تعمل في مجال حوكمة الذكاء الاصطناعي وتعمل على سد الفجوة: "إنه انقسام حقيقي للغاية ومتزايد". "إنها بمثابة نهاية الشهر مقابل نهاية العالم".

وعلى الرغم من كل الاهتمام الذي حظي به الذكاء الاصطناعي، إلا أن المناقشة العامة الجادة حول المخاطر الوجودية التي يواجهها الذكاء الاصطناعي -أو "المخاطر x" كما يسميها الأشخاص الأكثر قلقًا بشأنه- ظلت حتى وقت قريب محصورة في مجموعة من الفلاسفة والباحثين في مجال الذكاء الاصطناعي.

لقد تغير ذلك بعد إطلاق شركة "أوبن إيه آي" OpenAI لتطبيق "شات جي بي تي" ChatGPT في أواخر العام الماضي والتحسينات اللاحقة التي قدمت استجابات شبيهة بالبشر، مما أثار تحذيرات من أن مثل هذه الأنظمة يمكن أن تكتسب ذكاءً خارقاً.

وقد أكد باحثون بارزون، بمن فيهم جيفري هينتون، الذي يعد أحد الآباء الروحيين للذكاء الاصطناعي، أنه يحتوي على بصيص من التفكير البشري، وترك هينتون منصبه في شركة ألفابت مالكة غوغل هذا العام ليناقش بحرية أكبر مخاطر الذكاء الاصطناعي.

وقال ديفيد كروغر، أستاذ التعلم الآلي في جامعة كامبريدج، إنه مع وجود تحذيرات من المخاطر الوجودية، "يمكن أن يتم السخرية منك ومعاملتك كشخص مجنون، وسيؤثر ذلك على فرصك في العمل". وساعد كروغر في تنظيم بيان في شهر مايو قال فيه إن خطر انقراض البشرية الناجم عن الذكاء الاصطناعي كان على قدم المساواة مع مخاطر الأوبئة والحرب النووية، وقد تم التوقيع عليها من قبل المئات من خبراء الذكاء الاصطناعي، بما في ذلك كبار المسؤولين والباحثين في "غوغل" و"أوبن إيه آي" و"أنثروبيك".

وأضاف كروغر: "أردت أن يعرف الباحثون أن لديهم من يدعمهم".

ويجادل البعض في هذا المجال بأن هناك جانباً إيجابياً متناقضاً لشركات الذكاء الاصطناعي في التركيز على المخاطر السيادية للأنظمة، لأنها تعطي إحساساً بأن التكنولوجيا الخاصة بها متطورة للغاية.

وقال دانييل شوينبرغر، المحامي السابق لشركة غوغل، الذي عمل في قائمة مبادئ الذكاء الاصطناعي لعام 2018، ويعمل الآن في مؤسسة Web3: "من الواضح أن هؤلاء الأشخاص يستفيدون من الضجيج الذي ما زال يتغذى". وقال إن صناع السياسات يجب أن يركزوا بشكل أكبر على المخاطر على المدى القريب، مثل الذكاء الاصطناعي الذي يجعل من الأرخص شن حملات لنشر معلومات كاذبة ومضللة، أو تركيز المزيد من القوة في وادي السيليكون.

وقال شوينبرغر: "هناك خطر الهيمنة، حيث تتحول شركات التكنولوجيا الكبرى إلى شركات ذكاء اصطناعي كبيرة".

كما يقول قادة الذكاء الاصطناعي، الذين يشعرون بالقلق من المخاطر الوجودية، إن مخاوفهم حقيقية وليست حيلة. وقال ألتمان من OpenAI في يونيو/حزيران: "إن القول إن الحكومات ميؤوس منها، لذا فإن الدعوة إلى التنظيم هي نوع من حركة ذكية غير متوقعة"، "كلا، هذه ليست الطريقة التي نفكر بها، إنه فعلاً خطر وجودي".

ولا يقول من يُطلق عليهم اسم "Doomers" (من يؤمنون بالنهاية) إن الذكاء الاصطناعي سوف ينهض بالضرورة مثل Skynet في أفلام Terminator لتدمير البشر. ويشعر البعض بالقلق من أن أنظمة الذكاء الاصطناعي المدربة للحصول على المكافآت يمكن أن ينتهي بها الأمر إلى دوافع خفية للبحث عن السلطة، أو إيذاء البشر عن غير قصد أثناء تنفيذ رغباتنا، أو ببساطة التفوق على البشر والسيطرة على مصيرنا.

وتركز الأبحاث في هذا المجتمع إلى حد كبير على ما يسمى بالمواءمة، أي كيفية التأكد من أن عقول الكمبيوتر المستقبلية لديها أهداف متزامنة بشكل جوهري مع أهدافنا.

وعلى النقيض من ذلك، يشعر المختصون في أخلاقيات الذكاء الاصطناعي والعدالة بالقلق إزاء الكيفية التي تستغل بها الأدوات، عن غير قصد أو عن قصد، العمال وتعمق عدم المساواة بين الملايين من الناس، إنهم يريدون من شركات التكنولوجيا والجهات التنظيمية تنفيذ معايير وتقنيات التدريب للحد من هذا التهديد.

التنوع

لقد أظهر علماء أخلاقيات الذكاء الاصطناعي كيف يمكن لأنظمة الذكاء الاصطناعي المدربة على البيانات التاريخية أن تحوّل التمييز الماضي إلى قرارات مستقبلية عالية المخاطر، مثل الإسكان أو التوظيف أو الأحكام الجنائية.

وأظهرت الأبحاث أيضاً أن أنظمة الذكاء الاصطناعي التوليدية يمكن أن تنتج صوراً متحيزة، ويجادل العلماء أيضاً بأن الافتقار إلى التنوع بين الباحثين في مجال الذكاء الاصطناعي يمكن أن يعميهم عن التأثير الذي يمكن أن يحدثه الذكاء الاصطناعي على الأشخاص باختلاف لون بشرتهم والنساء أيضاً.

ويمكن أن يصبح النقاش ملتهباً، "ما هي خطتك للتأكد من أنه لا ينطوي على خطر وجودي؟" وجه ماكس تيغمارك، رئيس معهد مستقبل الحياة، سؤاله هذا إلى ميلاني ميتشل، الباحثة البارزة في مجال الذكاء الاصطناعي والأستاذة في معهد سانتا في، خلال منتدى عام حول المخاطر في يونيو/حزيران. وأضاف: "أنتِ لا تجيبين على سؤالي".

وردت ميتشل: "لا أرى أن هناك خطرا وجوديا"، مضيفة أن الناس يعملون بجد "من أجل التخفيف من المخاطر الأكثر إلحاحاً في العالم الحقيقي".

وقالت ميتشل في مقابلة إن النقاش حول المخاطر الوجودية "يعتمد كله على التكهنات، ولا يوجد أي علم في الواقع".

وقال تيغمارك، الأستاذ في معهد ماساتشوستس للتكنولوجيا الذي تهدف مؤسسته غير الربحية إلى منع التكنولوجيا من خلق مخاطر شديدة وواسعة النطاق، إنه يرى أن الشركات لديها مصلحة في إثارة الفجوة بين الأشخاص الذين يركزون على قضايا العدالة والمخاطر الوجودية لتجنب التنظيم.

وقال في مقابلة: "الناس على كلا الجانبين يلحقون الضرر بأنفسهم إذا لم يتفقوا مع الجانب الآخر".

وقد تسبب الصراع في شرارة لسنوات، ففي عام 2015، اجتمع بعض الأكاديميين والعلماء لمناقشة مخاطر الذكاء الاصطناعي على هامش مؤتمر استضافه حرم غوغل، وواجه أحد الجانبين أنصار المخاطر الوجودية، زاعمين أن التركيز يجب أن يكون على الأضرار الحالية، بما في ذلك التحيز.

ورد البعض بأنه مع ترجيح الكفة لصالح مستقبل البشرية، لا ينبغي لأحد أن يقلق بأن الذكاء الاصطناعي سيتسبب بفرق ربع نقطة على معدل الرهن العقاري، كما يتذكر ستيفن ويبر، الأستاذ في جامعة كاليفورنيا بيركلي الذي كان حاضراً.

وقال ويبر: "لقد رأيت أن الأمر سيتحول لعراك بالأيدي في اجتماع أكاديمي".

إن أولئك الذين يشعرون بالقلق إزاء نهاية العالم بعيدون كل البعد عن توحدهم مع بعضهم البعض، حيث يجادل بعض المتشائمين بأنه حتى المديرون التنفيذيين في الشركات الكبرى الذين يقولون إنهم قلقون لا يفعلون ما يكفي لتجنب ذلك الخطر.

وقال كونور ليهي، الرئيس التنفيذي لشركة Conjecture، وهي شركة ذكاء اصطناعي: "إننا نشهد سباقاً بسبب أنظمة الذكاء الاصطناعي الجبارة من جميع الفاعلين الرؤساء". وقال إنه يتعامل مع مخاوف شركات التكنولوجيا الكبرى بشأن المخاطر الوجودية بحذر.

وهناك جهود تبذل لسد الفجوة أيضاً، حيث يقول بعض الباحثين في الأخلاقيات إنهم لا يستبعدون المخاطر الوجودية تماماً، لكنهم يرون فقط أنه يجب معالجتها كجزء من المشكلات المحددة جيدًا الموجودة اليوم.

ويقول بعض المتشائمين إن الطريق إلى الكارثة يمكن أن يأتي من المخاوف التي أبرزها المجتمع، مثل التضليل الصناعي الذي يطيح بالحكومات أو يشعل الحروب، وكلا الجانبين مهتمان بالقدرة على اختراق الصندوق الأسود لكيفية تفكير الذكاء الاصطناعي، والذي يسمى مشكلة القابلية للتفسير.

وقال أتوسا كاسيرزاده، الأستاذ المساعد في أخلاقيات الذكاء الاصطناعي بجامعة إدنبره والذي عمل سابقًا في Google DeepMind: "يحاول البعض حقاً سد هاتين الثغرتين"، "نأمل أن يتم إقناع تلك المجتمعات بأنها جميعها مهتمة بنفس الأمر".

logo
اشترك في نشرتنا الإلكترونية
تابعونا على
جميع الحقوق محفوظة ©️ 2024 شركة إرم ميديا - Erem Media FZ LLC