بلا عنوان







يبدو أن "قمة سلامة الذكاء الاصطناعي"، التي نظمتها المملكة المتحدة على مدى يومين الأسبوع الماضي في "بلتشلي بارك"، ستكون حدثاً تاريخياً، حيث تمت مناقشة الجهود المبذولة لاحتواء تقدم تكنولوجيا الذكاء الاصطناعي التي من المتوقع أن تغير العالم، وذلك بالتجمع لأول مرة قادة العالم.


وقد تضمن جدول أعمال القمة ، مناقشات حول مخاطر الذكاء الاصطناعي التعبير، نضع آمالنا في حفظ أمان المجتمع الدولي ونعارض أي احتمال استغلال سلبي لهذا التعبير. التكنولوجيا من قبل الإرهابيين، لبناء أسلحة بيولوجية.


واستكشاف آفاق الابتكار في مجال التكنولوجيا. الذكاء الاصطناعي فيما يتعلق بالبشر وفقدهم للسيطرة عليهم وكيفية تقليل المخاطر المترتبة على ذلك، مع التركيز على الأدوار التي يمكن أن يلعبها المجتمع العلمي وصناع السياسات.


أكثر من 100 شخص حضروا "مؤتمر قمة سلامة الذكاء الاصطناعي"، وقد تضمن الحضور قادة سياسيون من. بريطانيا وأميركا والصين يضم هذا الفريق قادة رئيسيون لشركات الذكاء الاصطناعي وخبراء في مجال الأبحاث، إلى جانب مجموعات من أفراد المجتمع المدني.


ومن بين أبرز الشخصيات التي حضرت القمة، كان رئيس الوزراء البريطاني ريتشي. سوناك ، نائبة الرئيس الأميركي كامالا هاريس ، رئيسة الوزراء الإيطالية جيورجيا ميلوني ، نائب وزير التكنولوجيا الصيني وتشاو هوي، رئيسة المفوضية الأوروبية أورسولا فون دير لاين ، الأمين العام للأمم المتحدة أنطونيو غوتيريش ، الرئيس التنفيذي لشركة X، إيلون ماسك ، الرئيس التنفيذي لشركة OpenAI سام ألتمان والقادة التنفيذيون العاملين في شركات الذكاء الاصطناعي الأخرى، بما في ذلك. Meta وAnthropic وDeepmind التابعة لشركة Google .


الكشف عن "إعلان بلتشلي"!!


شهدت قمة " سلامة الذكاء الاصطناعي أخرى، تستعد للتوقيع على اتفاقية هامة لحماية البيئة. ستتضمن الاتفاقية التزامات للحد من التلوث والحفاظ على الموارد الطبيعية وتعزيز الاستدامة البيئية. ستكون هذه الاتفاقية خطوة مهمة نحو الحفاظ على الكوكب والحفاظ على صحة الإنسان والحياة البرية. تهدف الحكومات المشاركة إلى تحقيق تقدم ملموس في مجال حماية البيئة وتعزيز التنمية المستدامة". الاتحاد الأوروبي ، بالتوقيع على ما يسمى بـ " إعلان بلتشلي يلمح البيان السابق إلى أنه من الضروري الاعتراف بأهمية التعاون الدولي لضمان الشفافية والمساءلة في تقدم مجال الذكاء الاصطناعي وتقليل المخاطر التي يمكن أن تنشأ عن هذه التكنولوجيا.


يشير "إعلان بلتشلي" إلى ضرورة إنشاء وتطوير ونشر الذكاء الاصطناعي بهدف تحقيق الخير للجميع، ويجب استخدامه بطريقة آمنة وجعله موثوقًا وتحميل مشغليه المسؤولية عن ذلك.


وأشار الإعلان في الوقت نفسه إلى المخاطر التي قد تنشأ من تطوير الذكاء الاصطناعي، حيث يتم الاعتراف بسلبيات استخدامه بطرق تمس بالضارة بالغير بصورة متعمدة أو غير مقصودة.


عبر الموقعون عن التوافق على ضرورة البحث عن فرص تستخدم الذكاء الاصطناعي للنفع العام وصالح الجميع، في إطار شامل يشمل جميع أرجاء العالم.


كما شهدت القمة إعلان الصين فيما يتعلق بموضوع سلامة الذكاء الاصطناعي، صرح نائب وزير العلوم والتكنولوجيا الصيني وو تشاو هوي بأن بلاده جاهزة لتعزيز الحوار والتواصل مع جميع الأطراف في العالم، على الرغم من التوتر التكنولوجي الحاصل بينها وبين الولايات المتحدة.


وكشف وو تشاو هوي، أن الصين سوف تُسهم في إنشاء آلية عالمية تتعلق بالذكاء الاصطناعي، بهدف تحقيق فوائد للبشرية.


تأتي التصريحات الصينية التي تبدأ أرضية مشتركة فيما يتعلق بالمخاطر التي يشكلها الذكاء الاصطناعي على البشرية في وقت تخوض فيه بكين نزاعًا تكنولوجيًا مع الولايات المتحدة. هذا النزاع قد دفع الصين إلى العمل على تطبيق قواعدها الخاصة للسيطرة على تطور الذكاء الاصطناعي التوليدي.


التدمير الأعظم عبر التاريخ.


وانتهت "قمة سلامة الذكاء الاصطناعي" بنقاش "مثير" بين رئيس الحكومة البريطانية ريتشي سوناك والرئيس التنفيذي لشركة X إيلون ماسك، الذي أعلن أن الذكاء الاصطناعي لديه القدرة على أن يصبح "أقوى قوة مدمرة في التاريخ".


وفقًا لماسك، يتوقع أن يتسبب الذكاء الاصطناعي في فقدان وظائف البشر جميعهم، حيث سيكون هناك شيء يفوق ذكاء البشر في العالم لأول مرة.


لجم الذكاء الاصطناعي


عدم الاستقطاب اليميني اليمني في المرحلة النهائية من مفاوضات بريكست ، مبرزة أهمية التنسيق الدولي والتعاون في مجالات الذكاء الاصطناعي والتكنولوجيا الحديثة. بروكسل في 25 أكتوبر 2023، تمت مرحلة مهمة حيث عمل المسؤولون على إكمال القانون المتعلق بالذكاء الاصطناعي والذي من المتوقع أن يتم قبوله من قبل الاتحاد بحلول نهاية العام الجاري. يهدف هذا القانون إلى تنظيم وضبط استخدام الذكاء الاصطناعي والسيطرة عليه من خلال وضع قواعد ومعايير محددة.


إصدار في الأيام التي سبقت القمة البريطانية، Similarly, in the days leading up to the British summit, a statement was issued. البيت الأبيض :يُشدد على مطوري الذكاء الاصطناعي بمتابعة ومعرفة متطلبات الحكومة من خلال تنفيذ أمر تنفيذي. الأميركية بناءً على النتائج المترتبة على تنفيذ إجراءات السلامة، يتم تعزيز معايير السلامة في هذا القطاع.


تطورًا سريعًا ونموًا كبيرًا في السنوات الأخيرة. منافسة سيكون لها طبيعة قوية مما سيؤدي إلى فشل الأمور وخروجها عن السيطرة.


لا يعرف أحد كيفية تنظيم الذكاء الاصطناعي.


وفقًا للمحلل في مجال الذكاء الاصطناعي، ألان القارح، في مقابلة لموقع "اقتصاد سكاي نيوز عربية"، فإن الجميع يبذلون أقصى جهودهم للإجابة على السؤال التالي في الوقت الحالي: "كيف يمكننا تنظيم الذكاء الاصطناعي وضمان الحفاظ على عدم استخدامه ضد البشرية؟" وأشار إلى أنه حاليًا لا أحد يعرف كيفية تحقيق ذلك. على الرغم من وجود إرادة سياسية كبيرة لاتخاذ إجراءات في هذا الصدد، إلا أن القرارات التي تم اتخاذها حتى الآن غير واضحة وليست واضحة ما هي أدوارها في ضبط استخدام الذكاء الاصطناعي.


المنافسة العنيفة تدفع إلى الاستخفاف


الشركات المختلفة تعامل هذه التوصيات والإرشادات بأساليب متباينة وقد لا تلتزم بها بشكل كامل. بعض الشركات تعبر عن شيء آخر بصورة واضحة وتعمل بسرية في الاتجاه المعاكس. تسعى أمريكا لتكون الرائدة في سباق التطور التكنولوجي، وبنفس الطريقة تسعى أوروبا للتنافس وتواجه منافسة شديدة من الصين، وبالتالي، ستكون الشركات في هذه الدول مضطرة لإطلاق نماذج الذكاء الاصطناعي بكثافة، وهذه النماذج يمكن استخدامها بشكل سيء بسهولة. وهذا يثير تساؤلات حول فعالية "التزامات طوعية" المتفق عليها، إذ يسعى الجميع للفوز في هذا السباق حتى وإن كان ذلك يستلزم تجاوز بعض القواعد.


يرى القارئ أنه بالنسبة للمبتدئين، قد تكون القرارات التي تم اتخاذها بخصوص ضبط وتنظيم الذكاء الاصطناعي قوية، ولكن الحقيقة تكون عكس ذلك. يتسبب التطور السريع الذي يشهده الذكاء الاصطناعي وانتقاله بسهولة من مرحلة لأخرى في هذا الأمر. لا يمر يوم دون أن تعلن شركة عن تحقيقها اختراقًا جديدًا في هذه التكنولوجيا. يؤكد أن حتى من قاموا بتطوير برامج الذكاء الاصطناعي، لا يستطيعون تحديد مدى قدرات برامجهم خلال عملية التطوير. وبالتالي، لا يدركون المخاطر التي تنشأ عنها إلا بعد ظهورها للعلن ووقوعها في أيدي الأشرار تمامًا كما حدث مع العديد من الاختراعات السابقة.


مهمة مستحيلة


يشرح الكاتب في هذا النص أنه على مرّ التاريخ، ظهرت العديد من الاختراعات التي كانت تهدف لمساعدة الإنسان وتعزيز تقدمه. ولكن عندما سقطت هذه الاختراعات في أيدي الأشرار، تمكنوا من تحويلها إلى أدوات للجريمة والابتزاز وحتى القتل. هذا ينطبق أيضاً على تكنولوجيا الذكاء الاصطناعي، التي ستعاني من نفس المصير الذي تعرضت له الاختراعات السابقة. فعلى سبيل المثال، تم ابتكار شبكة الإنترنت لمساعدة الناس في أعمالهم وتسهيل التواصل، ولكن قام البعض بتحويلها إلى أداة للابتزاز والسرقة من خلال تنفيذ الهجمات السيبيرانية. لذلك، يصعب بنسبة 100 بالمئة تنظيم تكنولوجيا الذكاء الاصطناعي، وهذا يعتبر مهمة مستحيلة. إذا كان الهدف هو عدم تحويلها إلى أداة يقتنصها الأشرار، فالحل الأمثل يكون هو عدم ظهورها من الأساس وعدم التطور إلى هذه المرحلة، ولكن للأسف فقد فات الأوان.


ووفقاً للقارح فإن من يريد معرفة ما هو السيناريو الذي ينتظرنا، فيما يتعلق بتكنولوجيا يجب على الذكاء الاصطناعي أن يحلل تطورات الهجمات الحالية والأحداث المتعلقة بها. السيبرانية تدين وتحارب الدول بصراحة، ولكنها في الخفاء تتموّل وتغذّي جيوش إلكترونية.


هناك عدة أسباب تحول دون القدرة على تنظيم الذكاء الاصطناعي.


من جانبه، يعتقد الخبير التقني جوزف زغبي، وفقًا لما نقلته موقع "اقتصاد سكاي نيوز عربية"، أن سبب عدم فهم المجتمع الدولي لكيفية " تنظيم الذكاء الاصطناعي ليس السبب أنه لا يعرف كيفية القيام بهذا الأمر، بل لأنه أمر مستحيل، وفي كل مرة يتم فيها إغلاق الثغرة الممكن استغلالها للتحايل على الضوابط، ستظهر مئات الثغرات الجديدة، ويتمثل الأمر بأن جميع المعايير الموضوعة مجرد تمنيات، حيث بعض الأطراف تلتزم بها وبعض الأطراف الأخرى تخالفها، وبالتالي ستنشأ حرب مفتوحة بين الجانب السلبي والجانب الإيجابي بالنسبة لتكنولوجيا الذكاء الاصطناعي.


ما تم إقراره غير كاف


كشف زغبي عن وجود تضارب في الآراء بين جميع الأطراف بخصوص تنظيم الذكاء الاصطناعي. في السابق، كانت صناعة التكنولوجيا تعارض التنظيم بشكل عام، وتعتبر أن ذلك سيؤثر سلباً على التطور. ولكن الآن تغيرت الأوضاع، خاصة مع شركات مثل Alphabet وMicrosoft وAnthropic وOpenAI التي تدعو إلى تنظيم هذه التكنولوجيا، بناءً على قلقها من المخاطر الكبيرة التي قد تحدث في المستقبل. وتأتي هذه المخاطر من التوقعات المروعة بأن نماذج الذكاء الاصطناعي ستكون قادرة في غضون سنوات قليلة على توفير جميع المعلومات اللازمة لتصميم أسلحة بيولوجية.


ما يقابل في الذكاء الاصطناعي. وبالتالي، قد يؤدي إقرار هذه القيود إلى تحقيق توازن جزئي في الاستخدام والتحكم في الذكاء الاصطناعي، ولكنه لا يكفي لحماية العمل البشري بشكل كامل. ومن المهم أن نلاحظ أن هذه القيود تعتمد على الأخلاقيات والقيم الأخلاقية للشركات الكبيرة ، التي تضمن عدم استغلال الذكاء الاصطناعي لتعويض العمال البشريين. البشر مع تطور برامج الذكاء الاصطناعي، ستكون مهمة منع بعض الأطراف التي تسعى لتوسيع نفوذها عالميا ضربه هجمات من خلال استغلال الذكاء الاصطناعي صعبة.


أحدث أقدم

نموذج الاتصال