الشرق بودكاست
تكنولوجيا

هل علينا أن نخشى الذكاء الاصطناعي؟

نقاش الساعة بين الخوف على مستقبل البشرية واتهامات التهويل

time reading iconدقائق القراءة - 32
صورة أنتجتها الشرق بالذكاء الاصطناعي- 8 أبريل 2024 - "الشرق"
صورة أنتجتها الشرق بالذكاء الاصطناعي- 8 أبريل 2024 - "الشرق"
دبي-رامي زين الدين

تخيل أن تنظر حولك، فترى سيارات بلا سائقين، أو ربما طائرات تحلق بمفردها. سيبدو المشهد غريباً بعض الشيء.. صحيح؟ ماذا لو عرفت إذن أن غرف العمليات ستخلو من الأطباء أيضاً، سيكون المرضى في عهدة روبوتات ذكية، والروبوتات نفسها قد تتخذ قرارات مصيرية في السياسة والاقتصاد والتعليم، وتقود الحروب وتطلق النار بدل البشر.

حتى سنوات قليلة مضت كانت هذه الأفكار غريبة ومستحيلة، مقتصرة على أفلام الخيال العلمي فقط، إلا أنها بفضل الذكاء الاصطناعي، ستُصبح على الأرجح أسهل مما يمكن تصوره، بل وأكثر من ذلك، إذ لن يحتاج الأمر إلا لفظ بضع كلمات أو كتابة نص قصير، ثم ستنجز الآلة الذكية كل شيء.

تبدو الحياة رائعة ومريحة في ظل الذكاء الاصطناعي، غير أن هناك أوجهاً مظلمة ومخيفة يُحذّر منها بعض عرّابي وخبراء التكنولوجيا، إلى درجة التنبؤ بخروج الآلة عن السيطرة، وتشبيه الذكاء الاصطناعي بالسلاح النووي، الذي قد يؤدي، في حال سوء استخدامه، إلى فنائنا.

فهل علينا حقاً أن نخشى الذكاء الاصطناعي؟ وما الذي يجب أن نخشاه؟

في الحلقة الثالثة من برنامج "سؤال المليار" على "الشرق بودكاست"، استضافت ميراشا غازي خبيرين في مجال علوم الكمبيوتر، أحدهما يُحذّر من خطر الذكاء الاصطناعي وهو البروفيسور رومان يامبولسكي الأستاذ في جامعة لويفيل الأميركية، والذي حظيت آراؤه بتأييد الملياردير إيلون ماسك أحد أبرز المستثمرين في مجال الذكاء الاصطناعي.

والضيف الآخر هو جوزيف وهبة، خبير بناء النظم البيئية للذكاء الاصطناعي، ونائب رئيس مجتمع خريجي إدارة الأعمال بجامعة هارفارد الأميركية، الذي اعترف بشهادته البروفيسور جيفري هينتون الأب الروحي للذكاء الاصطناعي.

التهويل وسوء الاستخدام

قبل آلاف السنين بدأت رحلة تطور الإنسان عن باقي الكائنات؛ بإطلاق العنان لخياله الذي قاده إلى ابتكارات غيّرت وجه البشرية. عندما اكتشف الصينيون البارود مثلاً، خلال الألفية الأولى بعد الميلاد كانوا يبحثون عن إكسير الحياة، لكن ما كان يُفترض أن يمنح البشر حياة أبدية، تحوّل إلى سبب لفناء الكثيرين خلال الحروب اللاحقة.

ولطالما كان التهويل رفيق درب الاختراعات البشرية. بعد اختراع المحرك البخاري إبان القرن الـ18 شكّل ذلك صدمة للناس، إذ لم يكن بمقدور الآلات قبل ذلك التحرك من تلقاء أنفسها، وهكذا خشي البعض من سيطرتها عليهم.

توالت القرون مع ما حملته من إنجازات واكتشافات علمية، لكن صفتين اثنتين رافقتا رحلة التطور هذه: التهويل القائم على التخيّل وسوء الاستخدام، فالتجارب أثبتت أنه لا يمكن التعويل دائماً على صوابية قرار البشر، فالاكتشافات النووية مثلاً، على أهميتها، سقطت في الاختبار الأخلاقي بعد اختراع القنبلة النووية، واستخدامها في الحرب العالمية الثانية.

اليوم، في العصر الفريد الذي نعيشه، يُهيمن الذكاء الاصطناعي على عقول الناس، أنصاره يَعدون بحياة أفضل، والمشككون يُحذرون من مصير مروّع. الذكاء الاصطناعي ليس سيئاً كما تخشى، وليس جيداً كما تأمل، هكذا يقولون، لكن البشرية، كما يبدو، ماضيةٌ إلى مستقبل قلّة فقط من يستطيعون التنبؤ به.

خارج عن السيطرة

البروفيسور رومان يامبوليسكي من العلماء الذين دقوا ناقوس الخطر، وفي مطلع العام 2024 أصدر كتاباً بعنوان "AI: Unexplainable, Unpredictable, Uncontrollable" (الذكاء الاصطناعي.. غير قابل للتفسير.. غير قابل للتنبؤ.. خارج عن السيطرة)، رأى خلاله أن تطور الذكاء الاصطناعي قادر على التسبّب بكارثة وجودية، وأن الوعد بالازدهار غير المسبوق، يقابله خطر الانقراض.

لا يخشى يامبوليسكي الذكاء الاصطناعي الذي لدينا اليوم، إذ كما يقول من السهل اختبار الأنظمة ضيقة الإمكانات المتوفرة حالياً، ورغم أن عملية التحكم في الأخطاء ليست بسيطة، لكنها قابلة للتطبيق، إلا أن ما يقلقه هو "الذكاء الاصطناعي المستقبلي الذي نتوقعه، والذي سيكون أكثر قدرة بكثير، وربما عام مثل البشر، وحتى فائق الذكاء في بعض النواحي، إذ سيكون أصعب بكثير، إن لم يكن من المستحيل السيطرة عليه".

وأضاف "هناك احتمال أن تكون أنظمة الذكاء الخارق المستقبلية معقدة للغاية، ولا يمكن التنبؤ بها، ولا يمكن السيطرة عليها لدرجة أنها قد تشكل خطراً، وبطبيعة الحال، إذا لم نتمكن من السيطرة على الذكاء الاصطناعي العام (الفائق)، هناك بعض النتائج التي لن نفرح بها، ولذلك هناك ما يبرر درجة معينة من القلق والحذر بشأن ما يمكن أن يفعله".

ويعتقد يامبوليسكي أن الذكاء الاصطناعي الضيق مفيد، في حين يكمن التهديد في النوع الفائق الذي يجري تطويره، ويوضح الفرق بينهما بأن "نظام الذكاء الاصطناعي الضيق تم تصميمه للقيام بشيء واحد بشكل جيد. لذا فإن نظام لعب الشطرنج مثلاً هو ذكاء اصطناعي ضيق، بينما يمكن للذكاء الاصطناعي العام أن يفعل أي شيء يمكن أن يفعله الإنسان تقريباً. يمكنه قيادة السيارة، ولعب الشطرنج، والتنبؤ بسوق الأوراق المالية، ويمكنه أيضاً تعلم قدرات جديدة، أي أنه أذكى من جميع الناس في جميع المجالات، بما في ذلك العلوم والهندسة".

وتابع "إذا قمنا ببناء نوع ما من آلية الأمان في النموذج الأولي، وبعد ذلك أعاد الذكاء الاصطناعي كتابة الكود الخاص به، وتعلم قيماً جديدة، وطرقاً جديدة للقيام بالأشياء، فمن المحتمل أن يكون قادراً على إزالة بروتوكولات الأمان تلك، وهكذا مرة واحدة يصبح خارجاً عن السيطرة، وهذا هو الخطر. كما يتفق الجميع على أننا لن نكون قادرين على إنشاء ذكاء خارق خاضع للرقابة. فإذا كان الأمر كذلك، فلماذا نبني هذه الأنظمة؟ يمكننا الحصول على فوائد من الذكاء الاصطناعي الضيق، ولهذا السبب، أنصح بعدم بناء مثل هذه الأنظمة ما لم نتمكن من إثبات أنها قابلة للتفسير، ويمكن التنبؤ بها، وما إلى ذلك".

في المقابل، لا يتفق جوزيف وهبة مع الآراء التي تدعو إلى القلق، بل على العكس يدعم تطوير الذكاء الاصطناعي، لأنه يحمل الكثير من الفائدة، بحسب رأيه.

ورأى وهبة أن الإجابة عن سؤال الخوف من الذكاء الاصطناعي تعتمد دائماً على سياق النظام البيئي المحلي، وقال "إذا كان السؤال عن وادي السيليكون حيث نرى سيارات ذاتية القيادة ونظاماً بيئياً للذكاء الاصطناعي يعمل بكامل طاقته، فإن الإجابة تختلف عما هي عليه في مركز تكنولوجي ناشئ لا يزال يحاول التعرف على سياسات الذكاء الاصطناعي واستراتيجيته الوطنية، ولذلك لن أخاف منه، بل سأتقبله وأشجع تطويره".

وتابع "بالتأكيد هو ليس سلاحاً للشر، بل سلاح للخير إذا فهمته الحكومات والمشرعون والمسؤولون المنتخبون، وفهموا الآثار الاجتماعية والاقتصادية للذكاء الاصطناعي".

أذكى من البشر

لقد استغرق فهمنا لأشياء معينة آلاف السنين من التطور، ومن بين ما تميّزنا به كبشر عن باقي الكائنات هو امتلاك الوعي، وهذا الوعي يحكم عادة قراراتنا وتصرفاتنا بحيث تبقى في حدود العقل وأقل الضرر.

في السابق لم تتجسّد محاكاة الآلات للبشر إلا في أفلام الخيال العلمي.. لا بد أنك شاهدت أفلاماً مثل "Terminator"، و"I. Robot"، و"Matrix" التي رسمت صورة شريرة لآلات قادرة على التفكير بأنفسها، واستعباد مبدعيها البشريين. في عصرنا الحالي، يتجه الذكاء الاصطناعي كما يتوقع الخبراء إلى مستوىً من الوعي والذكاء، لن يشبه وعينا وذكاءنا فحسب، بل سيتفوق عليه بمليارات المرات.

يامبوليسكي لديه فهمه وموقفه حيال هذا الأمر "حسناً، الوعي مفهوم صعب جداً. إن قياس الوعي عند البشر ليس ممكناً تماماً، ولن يكون علمياً حقاً. يمكننا أن نفترض أن الناس واعون، ولكن ليس هناك اختبار لذلك. ولذلك فإننا عادة لا نتحدث عن الوعي بقدر ما نتحدث عن سلامة الذكاء الاصطناعي. لأنه لا يهم حقاً ما إذا كان النظام واعياً أم لا، ما يهم هو مدى قدرته. هل هو أذكى منك؟ هل يمكنه التفوق عليك في المجالات الأكثر إثارة للاهتمام؟".

ويحاول العالم في مجال سلامة الذكاء الاصطناعي توضيح مستقبل الذكاء الاصطناعي "حسناً، سيكون أكثر ذكاءً منا جميعاً. ما يمكن أن يفعله بهذه القوة لا يمكننا التنبؤ به. لا أعرف إذا كان الاستعباد هو بالضبط مصدر القلق. نحن ربما لن يكون لدينا الكثير لنقدمه للذكاء الفائق، لكن يمكن لأي سبب من الأسباب أن يُحاول الذكاء الاصطناعي أن يحد من حريتنا ومن قدراتنا، وربما الاستحواذ على مصادر نحتاجها لوجودنا".

ومع هذه النظرة غير المتفائلة، سألنا يامبوليسكي متى سيتطور الذكاء الاصطناعي إلى الدرجة التي قد نفقد بها السيطرة عليه، فقال "لا أحد يعرف على وجه اليقين. من الصعب جداً التنبؤ بمثل هذه الأشياء. يبدو أن الكثير من الأشخاص يقومون حالياً بتحديث توقعاتهم لتواريخ قريبة. بحسب قادة مختبرات الذكاء الاصطناعي مثل (Open AI) و(Entropic)، قد نكون على بعد عامين أو 3 أعوام من الذكاء الاصطناعي العام (الفائق)، بينما تقول أسواق التنبؤات العامة بالذكاء الاصطناعي ربما من 5 إلى 6 سنوات، وبشكل عام الكثير من الناس يعتقدون أنه خلال عقد من الزمن سيكون لدينا نظام تنافسي مع البشر".

روبوتات الدردشة

قد لا تضطر بعد اليوم إلى أداء الكثير من المهام التي اعتدتها. تحضير قهوتك الصباحية مثلاً، أو وضع أجندة اليوم، وقيادة السيارة إلى العمل، وغسيل الملابس، وحتى كتابة قصة قصيرة. لا تستبعد أيضاً أن تعيش لترى أحفاد أحفادك، إذ ستتكفل خوارزميات الذكاء الاصطناعي بتحديد أنماط الشيخوخة، ومن ثم تجديد الخلايا والأنسجة والأعضاء، ومنحنا، بالتالي، حياة أطول.

هذا ما يعد به مطورو الذكاء الاصطناعي الناس في المستقبل غير البعيد. حياة أكثر راحة ورفاهية. ورغم أن الآلات شقّت طريقها بالفعل في رحلة التعلم الذاتي، ما يجعلها تختلف عن آلات المرحلة السابقة.

لكن جوزيف وهبة لا يعتقد أن الروبوتات تستطيع القيام بكل هذه المهام مستقبلاً "إذا وضعت نفسي مثلاً، في أحد مستودعات أمازون، وكان هناك روبوت مبرمج خصيصاً للتعبئة بشكل أكثر كفاءة والقيام بكل مهمة داخل مستودع أمازون، سيكون مثالياً، وأفضل بكثير من الإنسان، لكن لو وضعنا هذا الروبوت في موقف سيارات تابع لمركز تجاري، وطلبنا منه أن يقوم بتفريغ المشتريات داخل السيارة، فمن المحتمل أنه لن يعرف كيفية القيام بذلك، أليس كذلك؟".

وقال "إذا قمنا ببرمجة الروبوت للقيام بمهمة محددة في سياق محدد، فإنه سيصبح ممتازاً حقاً في هذه المهمة، فإذا فكرت في روبوت جيد حقاً في مهام تنظيف المنزل أو تنظيف مراحيض المطار، فهو جيد لأنه مبرمج، ويعرف خريطة المطارات. إنه يستطيع القيام بهذه المهمة بكفاءة أكبر بكثير مما يستطيع الإنسان القيام بها وبتكلفة أقل، لكن لنأخذ الروبوت خارج المطار لن يعرف القيام بأي شيء، ولذلك لا أرى في المستقبل روبوتاً قادراً على القيام بكل شيء، على الأقل خلال السنوات الخمس المقبلة".

مع ظهور روبوتات الدردشة، لا سيما "ChatGPT" الذي أطلقته شركة "Open AI" عام 2022، شغل الذكاء الاصطناعي عقول الناس، وأصبح من بين أكثر الكلمات انتشاراً على الإنترنت، ومواقع التواصل حتى في الحياة الواقعية.

واليوم، يستخدم 100 مليون شخص على الأقل هذه المنصة كل أسبوع، وفقاً للشركة المصنعة. ومع الضجة التي حظيت بها التقنية الجديدة، بات يسود اعتقاد أن روبوتات الدردشة الحالية تستطيع التحدثَ عن أي شيء والإجابةَ عن أي سؤال، إلا أنها كما يقول بعض الخبراء "مصممةٌ أساساً لمحاولة إخبارك بما تريد سماعه.

يوضح جوزيف وهبة الإمكانيات الحقيقية لهذه الروبوتات "إن نتيجة الذكاء الاصطناعي ليست حتمية. لذا، إذا سألت (ChatGPT) كيف يمكنني أن أخسر 10 كيلو جرامات؟ ثم سألته مرة أخرى السؤال نفسه، سيعطيك إجابة مختلفة، لأنه لم تتم برمجته للإجابة على هذه الصيغة من السؤال بشكل حرْفي، ولذلك فهو يعتمد على الاحتمالات وعلى البيانات، مع القليل من الهندسة الفورية، وبالإضافة إلى عدم الدقة يمكن أيضاً أن يقدم بعض الإجابات التي قد تكون غير أخلاقية".

مستقبل غامض؟

إذا كنّا بالفعل على بُعدِ سنوات قليلة من تفوق الذكاء الاصطناعي على البشر، فهل نحن مقبلون على مستقبل غامض نفقد فيه السيطرة؟

لا يبدو الأمر هكذا بالنسبة لجوزيف وهبة، إذ لا يعتقد أن الأمر سوف يسير على نحو خاطئ "بمعنى أنه يجب علينا دائماً تشجيع المزيد من البحث والتطوير والمزيد من الابتكار، لأنه ليس من مصلحة أحد أن يخشى أن يتولى الذكاء الاصطناعي زمام الأمور، ويعتقد فجأة أن الجميع سيصبحون عاطلين عن العمل، أو أن المهام ستكون زائدة عن الحاجة. سأشجع دائماً دفع حدود الذكاء الاصطناعي، لأنه يتعين علينا التركيز على البحث والتطوير والابتكار وتوسيع الحدود".

ورأى وهبة أنه نظراً للتجربة السحرية لـ"ChatGPT" ومنصات الذكاء الاصطناعي التوليدية التي ظهرت، اعتقد المستخدمون أن الذكاء الاصطناعي يُمكنه السيطرة على كل شيء، لكن في الحقيقة هذا يحتاج إلى نظام بمكونات مكتملة، وهو ليس متوفراً الآن، بحسب قوله.

من جهته، يرى البروفيسور يامبوليسكي أنه رغم الفوارق الشاسعة بين البشر وروبوتات الدردشة، لكن مع ذلك، سيبقى هناك ما يجعلنا متفردين عنها، وقال "لا زلنا نتمتع بمعرفة أكبر. هناك أشياء يمكننا القيام بها لا تساعدنا فيها نماذج ChatGPT، ولهذا السبب ما زلت أقوم بأبحاثي الخاصة، وهو السبب نفسه الذي يدعوكم إلى مقابلتي، وليس مقابلة روبوتات الدردشة".

لكن في العديد من المجالات، روبوتات الذكاء الاصطناعي أفضل من البشر، وفق يامبوليسكي، إذ "يتحدثون المئات من اللغات التي لا أتحدثها. ويمكنهم إنتاج الموسيقى باستخدام جميع  الآلات الموسيقية التي تعزف. بل وأكثر من ذلك، فهي تمتلك مجموعة فرعية من 50 مجالاً، بينما لدي أنا مجموعة فرعية من 10 مجالات".

مكالمة بايدن المزيفة

الذكاء الاصطناعي ليس شيئاً جديداً كما يعتقد البعض، بل تعود جذوره إلى فكرة ظهرت في أربعينيات القرن الماضي تُعرف باسم "الشبكة العصبية الاصطناعية"، اعتمدت في تطورها على تنمية مهارات عالية المستوى شبيهة بما لدى البشر، كالتعلم الإدراكي، وتنظيم الذاكرة، والتفكير النقدي، وفي العقد ونصف العقد الماضي، كان الذكاء الاصطناعي جزءاً من منتجات أطلقتها شركات مثل "خرائط جوجل"، ومنصة "نتفليكس"، و"فيسبوك"، وغيرها، إلا أن "روبوتات الدردشة شكّلت ما بات يُعرف بـ"عصر اختراق الذكاء الاصطناعي".

في السابق لم تكن هناك شكوى تُذكر بشأن هذه التقنية، إلا أن تطورها السريع أثار أيضاً مخاوف تتعلّق بالتضليل والاحتيال والتمييز.

خلال يناير الماضي استقبل الأميركيون في ولاية نيوهامشر مكالمة هاتفية من الرئيس جو بايدن تطلب منهم تجاهل الانتخابات التمهيدية، وعدم الذهاب للتصويت بحجة أنها خاصة بالجمهوريين، على أن يكون اقتراع الديمقراطيين في فترة لاحقة، ثم سرعان ما نفى البيت الأبيض صحّة المكالمة ليتبيّن أنها مزيفة باستخدام الذكاء الاصطناعي، ثم قررت هيئة الاتصالات الفيدرالية الأميركية، حظر المكالمات الآلية التي تُستخدَم فيها أصوات مولّدة بواسطة برامج الذكاء الاصطناعي.

دفعت هذه المكاملة تحالفاً مكون من 20 شركة تكنولوجية، تضم "جوجل"، و"تيك توك"، و"سناب شات"، و"مايكروسوفت"، و"ميتا"، و"إكس"، إلى عقد اتفاق للمساعدة في منعِ التزييف العميق "DEEP FAKE" بالذكاء الاصطناعي في انتخابات 2024 التي تجرى في عدد من البلدان حول العالم بهدف عدم خداع الناخبين.

مع ذلك، لا تقتصر التحذيرات من استغلال الذكاء الاصطناعي على التنافس بين السياسيين فحسب، إذ تزداد الخشية من استخدام هذه التقنية في زيادة التنافس بين القوى العظمى أيضاً.

في حديثه لـ"الشرق بودكاست"، اتفق البروفيسور رومان يامبوليسكي مع هذه المخاوف لافتاً إلى أن "الكثير من الحكومات تدرك ذلك الآن، وبدأت في سباق التسلح للحصول على الموارد الحسابية اللازمة لتصبح رائدة في هذا المجال. أعتقد أن الولايات المتحدة والصين وروسيا والعديد من الدول الأخرى تشارك في هذه المنافسة. والآن يتعلق الأمر كله بمن يمكنه الحصول على أكبر عدد من الرقائق لتدريب تلك النماذج، للمساعدة على استجابتهم العسكرية، وتحسين الخدمات اللوجستية، وللمساعدة على التجسس. لذا نعم بالتأكيد".

حتى الحكومات نفسها أصبحت في موضع الشك، إذ يعتقد يامبوليسكي أنها قد تستخدم الذكاء الاصطناعي لتعزيز سيطرتها على الأفراد والمجتمعات "هذا يحدث بالفعل. في الواقع، تستخدمه العديد من الحكومات في جمع البيانات عن المواطنين لمراقبتهم وتتبعهم، وربما لانتهاك خصوصيتهم. يبدو أنها مشكلة كبيرة بالفعل. وإذا كانت هناك، على سبيل المثال، حكومة غير ودية، فيمكنها استخدام ذلك للبقاء في السلطة لفترة أطول والتسبب في المزيد من الضرر".

قبل أيام قليلة من مكالمة بايدن المزيفة ضجّت مواقع التواصل بانتشار صور فاضحة لنجمة البوب الأميركية تايلور سويفت، فبعد أن سمح الذكاء الاصطناعي لأي شخص تقريباً بتصميم صور وأصوات ومقاطع، أصبح من الصعب معرفة إذا كنت ما تراه وتسمعه حقيقياً أم مزيفاً، ووسط طفرة الذكاء الاصطناعي هذه، ارتفع عدد مقاطع الفيديو الإباحية بالفعل أكثر من 9 أضعاف منذ عام 2020، ما قد يجعل أي شخص هدفاً لمثل حملات التشويه هذه.

وفي رسالة مفتوحة صدرت شهر مارس 2023، دعا إيلون ماسك ومئات الخبراء العالميين إلى وقف مؤقت لتطوير الذكاء الاصطناعي؛ حتى يتم اعتماد أنظمة حماية منها، مستندين في موقفهم إلى انتشار سباق تجاري غير منضبط لمختبرات الذكاء الاصطناعي بهدف تطوير أدمغة رقمية ذات قوة كبيرة، يعجز حتى مبتكريها عن فهمها أو التحكم بها بصورة مؤكدة.

وفي لغة امتزجت بالقلق والتحذير، تساءلت الرسالة التي صدرت عن معهد مستقبل الحياة "Future of Life Institute"، هل يجب أن نسمح للآلات بإغراق قنواتنا الإعلامية بالدعاية والكذب؟ هل ينبغي أن نطور عقولاً غير بشرية قد تفوقنا عددنا وذكاء في النهاية، وتتفوق علينا وتحل محلنا؟

يسرق وظائفنا!

سيأخذ الذكاء الاصطناعي جميع وظائفنا، ويتركنا عاطلين عن العمل. إلى حد بعيد هذا هو الخوف الأكثر شعبية من الذكاء الاصطناعي.

حتى نحن العاملين في حقل الإعلام بتنا نفكّر في مستقبلنا، لا سيما مع انتشار مواقع تحرير الأخبار بالذكاء الاصطناعي، وظهور تجارب للمذيع الروبوت التي يبدو أنها ستغيّر شكل هذه المهنة السنوات القادمة.

ولعلّ استبعاد الأجيال غير القادرة على استيعاب هذه التقنية من الهواجس التي تشغل بال الكثيرين أيضاً، وقد بدأت بالفعل العديد من الشركات في السنوات الماضية، على غرار "أمازون" وغيرها، باستبدال العمال في مستودعاتها بروبوتات ذكية، واللافت ربما أن الكلمة نفسها مشتقة من الكلمة التشيكية "Robota" أو العمل القسري، وجذرها اللغوي السلافي "Rab" وتعني "عبد".

ذكر تقرير سابق صادر عن بنك "جولدمان ساكس" أن الذكاء الاصطناعي سيقضي على 300 مليون وظيفة بدوام كامل، بينما يعد مطورو الذكاء الاصطناعي بظهور ملايين الوظائف الجديدة، فكيف يبدو مستقبل الوظائف؟

قال خبير النظم البيئية للذكاء الاصطناعي جوزيف وهبة "يمكننا تقسيم المهام إلى مهام صغيرة ومعرفة ما يمكننا تحسينه باستخدام الذكاء الاصطناعي، بدءاً من مهام السكرتير إلى التسويق الرقمي إلى كل شيء آخر له مهام متكررة، وهنا يأتي دور هذا النظام البيئي المحلي الذي أعنى ببنائه. فهو يوفر الأدوات لكيفية استخدام الذكاء الاصطناعي، فالعاملون في مجال الرعاية الصحية في إفريقيا جنوب الصحراء الكبرى مثلاً أصبح لديهم الآن نفس الأدوات المستخدمة في مستشفيات وادي السيليكون".

وأضاف "هنا تبرز الحاجة الماسة إلى تمكين عامل الرعاية الصحية بالأدوات والمهارات اللازمة للتعامل مع الذكاء الاصطناعي، وبذلك، من المرجح أن تحصل تلك الممرضة أو عامل الرعاية الصحية على وظيفة أفضل أو أن يكون أكثر تمكيناً من ذلك الذي لا يعرف كيفية استخدام الأدوات اللازمة. جميعنا نتقدم في السن، وكل جزء من القوى العاملة يتأثر. في سنغافورة، أصدروا قانوناً ينص على أن كل مواطن في البلاد تجاوز 40 عاماً، ويريد العودة إلى الجامعة لدراسة الذكاء الاصطناعي، يحصل على دعم بنسبة 50% أو بعض الدعم من الحكومة، لأنهم يؤمنون بالمزايا الأكاديمية للذكاء الاصطناعي".

لذلك، فإن الجيل القادم من مواهب الذكاء الاصطناعي، لن يقتصر على طلاب المدارس الثانوية وطلاب الجامعات الذين سيدخلون سوق العمل، وفقاً لوهبة، إذ كل شخص يرغب في المشاركة في اقتصاد الذكاء الاصطناعي يعتبر من الجيل القادم من مواهب الذكاء الاصطناعي، بغض النظر عن عمره.

تجربة السعودية

بالحديث عن تجربة سنغافورة في دفع كبار السن إلى عالم الذكاء الاصطناعي يتبادر سؤال عن الطريقة التي يجب أن تستعد بها الدول لهذا العصر الرقمي الجديد، وقد طرح جوزيف وهبة خلال حديثه لـ"الشرق بودكاست" مثالاً من المنطقة العربية "يعتمد التصنيف العالمي للذكاء الاصطناعي على قياس نحو مجموعة أدوات مختلفة تجعل النظام البيئي للذكاء الاصطناعي متطوراً، كالموهبة، والبنية التحتية، وبيئة التشغيل، وتطوير الأبحاث، والاستراتيجية الحكومية ومن ثم التبني التجاري".

وتابع "في العام الماضي، احتلت المملكة العربية السعودية المرتبة الأولى في مؤشر استراتيجية الذكاء الاصطناعي الحكومية الصادر عن مؤسسة "تورتويس إنتليجينس"، بسبب رؤية 2030، بفضل القيادة الرشيدة. ولهذا، فإن رغبة شخص ما في المشاركة في هذا النظام البيئي يمكن أن تكون مدفوعة باستراتيجية الحكومة. عندما قمنا بوضع خريطة للنظام البيئي للذكاء الاصطناعي في السعودية، كان هناك 15 مركزاً للتميز في الذكاء الاصطناعي، مقابل 5 جامعات تمنح درجة البكالوريوس في هذا المجال، وجامعتين تمنحان الماجستير".

وأضاف وهبة "النقطة المهمة هي أن السعودية فعلت ذلك بالطريقة الصحيحة من خلال بناء مراكز التميز المتخصصة للذكاء الاصطناعي، لأن بعضها على سبيل المثال يتعلق بالرعاية الصحية، وبعضها الآخر يتعلق بالتمويل، وأخرى لها علاقة بالنفط والغاز، وعندما يكون لديك مركز تميز في الذكاء الاصطناعي يتعلق بالرعاية الصحية، على سبيل المثال، يصبح لدى الطبيب أو عامل الرعاية الصحية طريق إلى الذكاء الاصطناعي عبر هذا المركز، وعندما نبني قاعدة المواهب المحلية، ونملأ هذا النظام البيئي بالأشخاص، نكون قادرين على قيادة موازنة الطلب على المشاريع وحالات الاستخدام، لأن تلك المواهب سوف تتغلغل في الصناعة وسيكون لها تأثير أكبر، في الأوساط الأكاديمية، والمختبرات، ومراكز الأبحاث، وريادة الأعمال.

واعتبر خبير النظم البيئية للذكاء الاصطناعي أنه "يتعين على الدول الاستفادة مما لديها محلياً وتوطين مجموعة مواهب الذكاء الاصطناعي، وعدم الاعتماد على وادي السيليكون لمواجهة تحديات الذكاء الاصطناعي".

ومنذ عدة قرون، يعيش العالم فجوة بين الدول المندفعة نحو البحث العلمي والدول المتخلفة عن هذا الطريق، وفي العقود القليلة الماضية شهد العالم قفزات هائلة في المجال التكنولوجي، وخلال السنوات العشر الأخيرة بدأت عجلة التطور تتسارع أكثر فأكثر، ما يطرح تساؤلات بشأن مصير البلدان التي ستتأخر عن اللحاق بثورة الذكاء الاصطناعي.

جوزيف وهبة أرجع الأمر إلى أهمية وجود "الاستراتيجية الوطنية للذكاء الاصطناعي"، معتبراً أن أي دولة لم تطلق استراتيجيتها الوطنية للذكاء الاصطناعي سيتم استبعادها من اقتصاد الذكاء الاصطناعي، لكن مع ذلك رأى أن "مجرد إطلاق استراتيجية هو شيء واحد، بينما المفتاح هو أن يكون لدى كل صاحب مصلحة في هذا النظام البيئي طريق للمشاركة في مجالات الذكاء الاصطناعي.

"موت جماعي"

"التخفيف من خطر الانقراض الناجم عن الذكاء الاصطناعي يجب أن يكون أولويةً عالمية إلى جانب المخاطر الأخرى كالأوبئة والحرب النووية".. على هذا المستوى من الخطورة، وقّع أكثر من 350 من كبار العلماء والمديرين التنفيذيين في مجال الذكاء الاصطناعي على بيان حذّروا خلاله من الجوانب المظلمة لهذه التقنية، ومن بين الموقعين عرابو الذكاء الاصطناعي المعاصرون جيفري هينتون ويوشوا بينجيو، والرئيس التنفيذي لشركة "OpenAI" سام ألتمان، والرئيس التنفيذي لشركة "Google DeepMind" ديميس هاسابيس.

البروفيسور يامبوليسكي أحد أبرز العلماء الذين رفعوا الإنذار إلى مستوياته العليا إلى درجة عدم استبعاد "خيار الموت الجماعي الذي قد يسببه الذكاء الاصطناعي".

وقال "إذا كنا نتحدث عن نظام ذكاء اصطناعي يُمكن أن يقتل الجميع أو أسوأ، ما هو مستوى الثقة الذي نحتاج إليه لتشغيل النظام؟ بالنسبة لي، يجب أن يكون آمناً بنسبة 100% وهو ما لا يمكن تحقيقه. وأعلم أن هذا ليس المعيار الذي حصلنا عليه في برمجياتنا السابقة، فنحن عادة ما ننقر على (نعم) في البرامج العادية، ونوافق على أية عواقب، وننتقل إلى المرحلة التالية، وإذا فشلنا في الأداء، فهي ليست مشكلة كبيرة، إذ ستقتصر الخسائر على فقدان بعض بيانات الخصوصية، ومن ثم نُعيد ضبط بطاقة الائتمان وكلمة المرور، لكن، عندما نتحدث عن برنامج ذكاء اصطناعي يمكن أن يقتل الجميع، فيجب أن يكون معيار السلامة أعلى بكثير".

وعن السيناريوهات الأسوأ لمخاطر الذكاء الاصطناعي، أشار إلى أن أحدها يرتبط بإدارة الأسلحة النووية "في حين ليس لدى القنابل ووحدات التحكم النووية عقول خاصة بها، ولا تزال بحاجة إلى البشر وسلسلة طويلة ومعقدة من الإجراءات قبل إطلاقها، إلا أنه بمجرد أن يمتلك الذكاء الاصطناعي عقلاً خاصاً به، من الممكن أن يكون قنبلة نووية ذات عقل جاهز لاتخاذ القرار بمفرده من دون تدخل بشري. ومن الأمثلة الشائعة على ذلك نظام الكشف عن ضربات الأسلحة النووية. من دون الاستجابة البشرية والتقييم البشري الدقيق مثلاً، لكان هامش الخطأ كبيراً، ما قد يؤدي إلى بدء حرب نووية تفني العالم والبشرية".

كما شبّه يامبوليسكي تعامل البشرية اليوم مع الذكاء الاصطناعي بتعاملها مع التطعيم ضد كورونا، قائلاً "عادة إذا توفي 100 شخص لسبب من الأسباب، ثم 1000 آخرين وهكذا.. لا نعود نرى الموت أمراً سيئاً، فالناس مع الوقت يعتادون ويعتبرون أن هذه الأمور تحدث. سيقولون مثلاً: الذكاء الاصطناعي فشل، لكن لا نزال هنا. إنه ليس شيئاً كبيراً. وفاة 100 شخص ليس كثيراً مقارنة بالمليارات. لا بأس. سنمضي قدماً".

واعتبر أنه "بطريقة ما، هذه الإخفاقات الجزئية تتيح بالفعل تطويراً أكبر لقدرات الذكاء الاصطناعي".

حتى العاملين في ميدان الذكاء الاصطناعي لا يستبعدون حدوث السيناريوهات الأسوأ. في فبراير الماضي، وجدت أكبر دراسة استقصائية على الإطلاق للباحثين في مجال الذكاء الاصطناعي، ونشرتها صحيفة "الجارديان" البريطانية، أن 16% منهم يعتقدون أن عملهم سيؤدي إلى انقراض البشرية، محذرين من ترك هذه التقنية في أيدي المديرين التنفيذيين المليارديرات وأصحاب رؤوس الأموال الاستثمارية.

مع ذلك، هناك من يرى أن التحذيرات من مخاطر الذكاء الاصطناعي مجرد مبالغة وتهويل اعتاده البشر.

لكن يامبوليسكي لديه رأي مختلف "حسناً، لا أحد يعرف على وجه اليقين، أليس كذلك؟ هناك الكثير من المشككين الذين يعتقدون أنه لن يكون هناك أي مشكلة. إلا أنني لم أر قط أي شخص يدّعي أن لديه آلية سلامة أو حتى نموذج أولي يمكن أن يصل إلى مستوى أكثر ذكاءً من الأنظمة البشرية. وعادة ما يقولون أنه لن يكون هناك مشكلة. سنكتشف ذلك عندما نصل إلى هناك".

وتابع "إنهم يُقامرون بمستقبل البشرية، دون أن يكون لديهم سبب علمي قوي للاعتقاد بأن هذا البرنامج سيكون آمناً. حتى البرامج التي لدينا اليوم مليئة بالأخطاء، وعادة ما ننقر ببساطة على نعم، أوافق على الاتفاقية. وليس هناك أي مسؤولية على المطورين والمبرمجين. نفس المستوى من التطوير غير المسؤول سيكون مشكلة كبيرة لأنظمة الذكاء الاصطناعي المتقدمة. أنا واقعي. نحن بحاجة إلى النظر بواقعية، والاستعداد لأسوأ الحالات. إذا لم يحدث ذلك، فهو رائع. إذا تبين أن الأمر مذهل، ويشبه المدينة الفاضلة، فنحن مستعدون لذلك".

وإذا ما افترضنا أن الذكاء الاصطناعي بإمكانياته الهائلة، والتي لم يعهدها البشر في الآلات من قبل، سيُمثل المرجعية المعرفية للأجيال المقبلة، وبالتالي تشكيل وعيهم حيال الكثير من القضايا. ما هي إذن المنظومة القيمية والأخلاقية التي سيعتمد عليها الذكاء الاصطناعي؟

تعود أهمية هذا الأمر بالنسبة لجوزيف وهبة إلى أن أسس الذكاء الاصطناعي تكمن في الفلسفة والرياضيات والاقتصاد وعلم الأعصاب وعلم النفس، وقال "بإمكاننا برمجة الذكاء الاصطناعي بناء على قيم اجتماعية معينة. وبطبيعة الحال، بإمكان الشخص الذي يعمل على هذا الذكاء الاصطناعي تغذيته بأي مجموعة بيانات يريدها. لذلك يعتمد الأمر على التطبيق، ومن يقوم ببنائه، وعلى مكان نشره، وإذا كان هذا مصدر قلق للفلاسفة وعلماء الأخلاق، فعليهم أن يعملوا جنباً إلى جنب مع صنّاع الذكاء الاصطناعي، وليس الاكتفاء بالتفرج والانتقاد كأنهم مجرد مستخدمين عاديين".

وأضاف "هذا العمل يبدأ في مراكز التميز للذكاء الاصطناعي. هناك، يوجد كبار المستشارين العلميين الذين يوجهون النظام البيئي لهذه التقنية، ويوجد هذا التوازن بين المنظمين، وعلماء الأخلاق، ومطوري الذكاء الاصطناعي، لا سيما عندما يكون لديك جهة تنظيمية متخصصة، وسياسي، ومسؤول منتخب مطلع بشكل جيد، قادرون على اتخاذ القرارات الصحيحة بناءً على آثار الذكاء الاصطناعي وكيفية تأثيره على الاقتصاد والمجتمع. وهكذا، لكي نحقق التوازن ونقلل الخوف، علينا العمل من خلال مراكز التميز للذكاء الاصطناعي، وتدريب المسؤولين الحكوميين حتى يتمكنوا من مساعدة المجتمع والشركات على تبنيها بشكل أفضل وأكثر سلامة".

كبح عجلة الذكاء الاصطناعي

في ختام حديثه لـ"الشرق بودكاست"، اقترح البروفيسور رومان يامبوليسكي عدم تطوير أنظمة الذكاء الاصطناعي العامة، وذلك بحسب قوله "حتى يكون لدينا القدرة على شرح كيفية عمل هذه الأنظمة، والقدرة على توقع القرارات التي سيتخذها.. وحتى نتمكن من فعل ذلك، ربما علينا التركيز فقط على الأنظمة المحدودة المتوفرة".

وتابع "لا شك أن هناك الكثير من الفوائد المالية من دمج النماذج الحالية مثل GPT بالاقتصاد بأكمله في الشركات الناشئة. أعتقد أن هناك ثروة تقدر بتريليونات الدولارات من مجرد نشر هذه النماذج اليوم. إذا فعلنا ذلك بشكل صحيح، فهي تقنية مذهلة يمكن أن تساعدنا في الاقتصاد والعلوم والأبحاث الطبية. يمكننا أن نعيش حياة أطول وأكثر صحية وأكثر ثراء، ولكن فقط إذا لم تكن الفاتورة أزمة وجودية".

أما نصيحة يامبوليسكي للناس فهي "حسناً، مهما حدث، الذكاء الاصطناعي سيؤثر على حياتكم بالتأكيد. لذا ثقفوا أنفسكم، واقرأوا عنه، وتابعوا الأشخاص الذين يعملون في هذا المجال. إنه التطور الأكثر أهمية، والتكنولوجيا الأكثر إثارة للاهتمام في تاريخ البشرية. لذلك سيؤثر ذلك على وظائفكم، وسيؤثر على تعليم أطفالكم، وربما سيؤثر على البشرية جمعاء. نحن لا نعرف ذلك بعد".

وأضاف بلغة لا تخلو من التشاؤم حيال الذكاء الاصطناعي "الفكرة هي أن لدينا هذا النموذج القدوة، إنه حقاً وحش، ونعلم أنه شرير، لكن ما نحاول فعله هو جعله يبدو جميلاً، من خلال وضع بعض أحمر الشفاه عليه. لا تقول هذه الكلمة، لا تفعل هذا، لكن تحت الغطاء، فإنه لا يزال مخلوقاً غريباً وخارجاً عن نطاق السيطرة. بالنسبة لي على الأقل".

بغض النظر عما تسمعه عن الذكاء الاصطناعي، من الواضح أنه ماض في التسلل إلى كل جانب من جوانب حياتنا، وهو قادر، كما يجزم الخبراء، على إحداث تغيير سريع وجذري فيها، ومثل أي قضية تختلف الآراء حولها، يدافع كل طرف عن موقفه من الذكاء الاصطناعي، سواء أصبح سلاحاً للخير أو وحشاً يقود إلى فنائنا.

يبقى الأمر المقلق هو صعوبة التنبؤ: متى وكيف يمكن أن يحدث ذلك؟ والمقلق أكثر ربما، أن مصيرنا سيكون رهن صوابية قرار من يقود ويطور هذه التكنولوجيا، مع ما تنطوي عليه من إمكانات هائلة، إذ ليس كل قرار عقلاني هو بالضرورة الأفضل لمصلحتنا.

حاولنا في هذه الحلقة من "سؤال المليار" أن نفهم معاً مخاطر الذكاء الاصطناعي، وجدّية المخاوف التي يتم التحذير منها، بلسان الخبراء والمختصين، وكلنا أمل أن وُفقنا في ذلك.

الحلقة السابقة من "سؤال المليار"

تصنيفات

قصص قد تهمك