آخر الاخبار

رئيس مقاومة صنعاء الشيخ منصور الحنق يوجه مطالب عاجلة للمجلس الرئاسي بخصوص جرحى الجيش الوطني .. والمقاومة تكرم 500 جريح تفاصيل يوم دامي على الحوثيين في الضالع وجثث قتلاهم لاتزال مرمية.. مصادر تروي ما حدث في باب غلق بمنطقة العود اليمن تبتعث ثلاثة من الحفاظ لتمثيل اليمن في المسابقة الدولية لحفظ القرآن الكريم وتلاوته بجيبوتي قصة موت جديدة تخرج من سجون الحوثيين.. مختطف في ذمار يموت تحت التعذيب ومنظمة حقوقية تنشر التفاصيل واحصائية صادمة حملة إلكترونية لإحياء أربعينية مدير دائرة التصنيع الحربي اللواء مهندس حسن بن جلال تعطل كافة أنظمة السداد الالكتروني شركة الاتصالات اليمنية تليمن ويمن نت.. تفاصيل الاسباب قائد الأسطول الأمريكي يتحدث عن السبب الذي يجعل موعد انجاز مهمة القضاء على خطر الحوثيين بالبحر الأحمر غير معروفا حتى الآن؟ القيادي الحوثي يوسف المداني يعترف : كل عمليات التفجير لمنازل خصوم المسيرة تتم بتوجيهات عبدالملك الحوثي وهو من يحدد موعد التفجير- فيديو بخسارته من الإمارات 3-0.. هل تضاءلت فرص المنتخب اليمني في المنافسة؟ الحكومة تعد لمشروع لائحة جديدة تنظم أوزان نقل البضائع على الشاحنات

قنبلة ذرية تهدد البشر.. تحذير علمي من الذكاء الاصطناعي

الأربعاء 31 مايو 2023 الساعة 10 صباحاً / مأرب برس- وكالات
عدد القراءات 1463

 

رغم فوائده المتعددة، حذر أكثر من 350 خبيراً في مجال الذكاء الاصطناعي حول العالم، بما في ذلك مبتكر "تشات جي بي تي"، من احتمال أن تؤدي هذه التكنولوجيا إلى انقراض البشرية.

ففي بيان مشترك، بدعم من الرؤساء التنفيذيين لشركات الذكاء الاصطناعي الرائدة، قالوا إن التخفيف من هذا الخطر "يجب أن يكون أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى، مثل الأوبئة والحرب النووية". بالذكاء الاصطناعي..

 وأعرب العديد من الخبراء عن قلقهم بشأن أخطار استخدام نماذج مثل "تشات جي بي تي" لنشر المعلومات الخاطئة والجرائم الإلكترونية، فضلاً عن التسبب في تعطيل الوظائف على مستوى المجتمع، وفق تقرير لصحيفة "ذا تايمز" البريطانية.

انهيار الحضارة كذلك أقر البيان، الذي نسقه المركز الأميركي لسلامة الذكاء الاصطناعي (CAIS)، بهذه المخاوف، لكنه قال إنه يجب أيضاً مناقشة تهديدات أكثر خطورة، ولكن أقل احتمالاً، بما في ذلك احتمال أن يؤدي تسريع الذكاء الاصطناعي إلى انهيار الحضارة.

ويخشى بعض علماء الكمبيوتر من أن ذكاء اصطناعياً فائقاً له اهتمامات غير متوافقة مع مصالح البشر، يمكن أن يحل محلنا أو يدمرنا عن غير قصد.

فيما يشعر الآخرون بالقلق من أن الاعتماد المفرط على الأنظمة التي لا نفهمها يتركنا في خطر كارثي إذا حدث خطأ. الذكاء الاصطناعي - آيستوك الذكاء الاصطناعي - آيستوك بدوره، أوضح دان هيندريكس، مدير CAIS، أن البيان كان وسيلة للتعبير لكثير من الباحثين.

وتابع "كان الناس خائفين للغاية من التحدث في وقت سابق".

البعض شكك في الادعاءات في المقابل، رفض أكاديميون آخرون البيان ووصفوه بأنه غير مفيد.

ووصفت الدكتورة مهيري أيتكين، زميلة أبحاث الأخلاقيات في معهد آلان تورينغ، الأمر بأنه "إلهاء" عن التهديدات الأكثر إلحاحاً من الذكاء الاصطناعي.

وأضافت: "إن سرد الذكاء الاصطناعي الفائق هو حبكة مألوفة من عدد لا يحصى من أفلام هوليوود الرائجة".

فيما كانت الدكتورة كاريسا فيليز، من معهد الأخلاقيات في الذكاء الاصطناعي بجامعة أكسفورد، متشككة في دوافع بعض الموقعين.

 وقالت: "أخشى أن التركيز على التهديد الوجودي يصرف الانتباه عن القضايا الأكثر إلحاحاً، مثل تآكل الديمقراطية أو زوالها، التي لا يريد الرؤساء التنفيذيون لشركات معينة مواجهتها".

وتابعت "يمكن للذكاء الاصطناعي إحداث دمار هائل دون المخاطرة الوجودية".

أسلحة بيولوجية وتتراوح المخاوف بشأن أخطر التهديدات من الذكاء الاصطناعي من إمكانية استخدامه من قبل البشر لتصميم أسلحة بيولوجية، إلى الذكاء الاصطناعي نفسه الذي يخطط لانهيار الحضارة.

يشار إلى أنه من بين الموقعين على البيان سام ألتمان، الرئيس التنفيذي لشركة OpenAI، التي صممت ChatGPT، وديميس هاسابيس، الرئيس التنفيذي لشركة Google Deepmind، التي صممت برامج لهزيمة أفضل اللاعبين في Go and chess.

وتم توقيعه من قبل رؤساء أنظمة الذكاء الاصطناعي الأنثروبي (Anthropic AI) و (Inflection AI) و (Stability AI) وأساتذة علوم الكمبيوتر من كامبريدج وأكسفورد وهارفارد وييل وستانفورد