يمكن للذكاء الاصطناعي حل المشكلات – متى سيخبرنا عن المشكلات الأكثر إلحاحاً الواجب حلّها؟
لا يزال يُنظر إلى الذكاء الاصطناعي على أنّه ضرب من الخيال العلمي الذي لا يُعرف متى سيتحقق.
وعلى الرغم من ذلك، تستخدم المؤسسات والحكومات بالفعل الذكاء الاصطناعي بطرق عديدة قد لا يُقدّرها أو يفهمها الكثيرون منا. وقد تبدو بعض هذه الاستخدامات مفيدة، كما في منصات التواصل الاجتماعي التي تستخدم تقنية التعرّف على الوجه لتبقيكم على تواصل مع أصدقائكم، أو مواقع التسوّق التي تعاين مشترياتكم السابقة لتقدم لكم مقترحات جديدة.
لكن يمكن استخدام هذه التقنيات كذلك لتتبّع الأفراد بشكل غير قانوني أو لمحاولة التأثير على طريقة تصويتنا في انتخابات ديمقراطية.
من جهة أخرى، تعتمد المؤسسات والحكومات تقنيات الذكاء الاصطناعي بشكل متزايد لأداء مهمات هامّة. على سبيل المثال، تُجري بكين تجارب باستخدام تقنيات التعرّف على الوجه لتطبيقات هاتفية شهيرة وذلك كإحدى الطرق الهادفة إلى تحديث برنامج بطاقة الهوية الوطنية في الصين، كما تستخدم المجموعات العاملة بالمجال الصحي في جميع أنحاء العالم تقنيات الذكاء الاصطناعي للمساعدة في الكشف عن مجموعة من الأمراض بشكل أفضل، ابتداءً من السرطان ووصولاً إلى الأمراض النفسية.
وتُعدّ فوائد تقنيات الذكاء الاصطناعي – وخاصة القدرة على تمييز الأنماط في مصادر البيانات المختلفة – أمراً يسهل على قادة الشركات وواضعي السياسات استيعابه: إذ يمكن لهذه التقنيات أداء مهام بسيطة ومتكررة ومملة بشكل أسرع من البشر، كما يمكنها توفير الوقت والحدّ من التكاليف، وتتيح للبشر العمل على مشاكل أكثر صعوبة تتطلّب الإبداع.
لكن هلّ سيتمكّن الذكاء الاصطناعي يوماً ما من إخبارنا ما هي أكثر المشاكل إلحاحاً بالنسبة للبشر، وكيفية حلّها؟ وهلّ فكّر أحدنا بالمخاطر التي ستواجهها البشرية في حال قمنا بذلك؟
الذكاء الاصطناعي ليس ذكيّاً بما فيه الكفاية...
ألّفت البشرية منذ فجر الحضارة قصصاً عن إمكانية خلق كائنٍ يشبهها ويتمتّع بالقدرة على محوها. وتُعتبر مسرحية روبوتات جامعة روسوم إحدى هذه القصص، وهي مستوحاة من أسطورة غولم وفرانكنشتاين إضافةً إلى كونها المصدر الذي استوحيت منه جميع القصص عن الروبوتات الشريرة التي تتمتع بالذكاء.
وشدد عالم الفيزياء الراحل ستيفن هوكينغ في نوفمبر 2017 على أهمية وضع أنظمة وضوابط تحكم عمليات تطوير الذكاء الاصطناعي. وقال في كلمة خلال مؤتمرٍ عقد في لشبونة: "إذا لم نتعلّم كيفية التحضير للمخاطر المحتملة وتجنّبها، يُمكن أن يكون الذكاء الاصطناعي أسوأ حدثٍ في تاريخ حضارتنا، وقد ينطوي على مخاطر مثل الأسلحة الذاتية الفتّاكة، أو طرقاً جديدة تتيح للأقلية قمع الأكثرية".
وأضاف هوكينغ قائلاً: "يمكن أن يكون النجاح في تطوير تقنيات ذكاء اصطناعي فعّالة أكبر حدثٍ في تاريخ حضارتنا أو أسوأ حدثٍ على الاطلاق، فنحن لا نعلم نتيجة ذلك بعد. وبناءً على ذلك، لا يُمكننا معرفة هل سيساعدنا الذكاء الاصطناعي بشكلٍ مطلق، أم سيتجاهلنا ويهمشنا، أم سيقضي علينا".
وعلى الرغم من أن هذا التحذير المروّع يدعو البشر للتفكر بعقبات التكنولوجيا، إلّا أنّ الذكاء الاصطناعي في الوقت الراهن لا يمتلك القدرة على تدمير الأرض. وفي الواقع فإنّ الذكاء الاصطناعي ليس مجرّد شيء واحدٍ إنما مجموعة من التقنيات المختلفة التي تتضمن آلات تستند إلى القواعد وتتبع إجراءت بسيطة من الأوامر لتحقيق هدفٍ محدد (مثل توصيلك بالشخص المناسب للتحدّث معه خلال الخدمة المصرفية عبر الهاتف)، وعمليات تعلّم الآلات كما في قيام روبوتات الدردشة الآلية باكتساب المعارف لتطوير استجاباتها بنفسها.
أنواع الذكاء الاصطناعي الأربعة
يُمكن تقسيم تقنيات الذكاء الاصطناعي إلى أربع مجموعات وفقاً لرأي أريند هينتز، الأستاذ في جامعة ولاية ميشيغان.
- الآلات التفاعلية، مثل آلات لعب الشطرنج ومنها "ديب بلو" التي تتسم بكونها جيدة في أداء مهمّة واحدة لكنها لا تمتلك أي ذاكرة وتطبّق تجسيداً بسيطاً لما تعرفه.
- الآلات محدودة الذاكرة، مثل السيارات ذاتية القيادة إذ يمكنها على سبيل المثال مراقبة سرعة واتجاه مستخدمي الطريق الآخرين، مما يتطلّب القدرة على تحديد أهداف معينة ومراقبتها، إلّا أنّها لا تقوم بمراكمة الخبرات عبر الزمن مثل البشر.
- قد يكون النوع الثالث من الذكاء الاصطناعي، المعروف باسم "نظرية العقل"، في مرحلة أكثر تطّوراً، ويقول هينتز: "سيتوجّب على هذا النوع فهم أنّ البشر والمخلوقات والأشياء في العالم يمكن أن يكون لها أفكار ومشاعر تؤثّر على سلوك (الآلات)".
- النوع الرابع يضمّ الآلات التي تتمتّع "بالإدراك الذاتي" أو "الوعي"، وسيستند إلى النوع الثالث، ويوضح هينتز: "كائن واعٍ مدرك لنفسه، ويعرف حالته الداخلية، ويحظى بالقدرة على توقّع مشاعر الآخرين"، وهذا هو النوع الذي يخشى هوكينغ وغيره من العلماء أن يقوم بتدمير البشرية.
تنبّهوا للمخاطر
ورد في تقريرٍ للبيت الأبيض عام 2016 بشأن مستقبل الذكاء الاصطناعي، أنّه من غير المرجّح للتكنولوجيا أن "تتوصّل إلى ذكاء يمكن تطبيقه على نطاق واسع بشكل يقارن أو يفوق الذكاء البشري" خلال الأعوام العشرين المقبلة.
وعلى الرغم من ذلك، يتوجّب على واضعي السياسات التنبّه لمخاطر هذه التكنولوجيا، ويعزى ذلك إلى أنها غير معصومة عن الخطأ وهو أمرٌ أثبتته الوفيات الناجمة عن اختبارات السيارات ذاتية القيادة (على الرغم من أنّ الأخطاء البشرية قد يكون لها دور في ذلك، خاصةً عندما يُبدي السائقون ثقةً أكثر من اللازم في الأنظمة).
وتتسم تقنيات الذكاء الاصطناعي التي تشمل تقنيات التعرف على الصور والصوت، بأنها عرضة لنقاط ضعف يمكن استغلالها من قبل المجرمين أو قراصنة تابعين لدولٍ أجنبية، كما يمكن لهذه التقنيات أن تخطئ كذلك إذ قد تتسبب لوحات الإعلانات على الطرق على سبيل المثال بإرباك المركبات ذاتية القيادة.
ويتوجّب على واضعي السياسات إنشاء مجموعة من المعايير والقواعد التي يمكن تطبيقها دوليّاً بغرض تطوير تقنيات الذكاء الاصطناعي بشكل آمن، عوضاً عن توقّع أن تقدّم هذه التقنيات حلولاً لجميع المشاكل. وعلى الرغم من أن التوافق عليها قد يكون أمراً معقّداً، إلا أن هذه المعايير والقواعد قد توفّر طريقة يمكن من خلالها للذكاء الاصطناعي والبشر عيش مستقبل مشترك وآمن.