مراحل الذكاء الاصطناعي Bostrom لاستراتيجية التهديد. الذكاء الاصطناعي. مراحل. التهديدات. استراتيجيات النص. سوف يصبح الذكاء الاصطناعي قريباً أكثر ذكاءً منا

نيك بوستروم

الذكاء الاصطناعي. مراحل. التهديدات. الاستراتيجيات

نيك بوستروم

الذكاء الفائق

المسارات والمخاطر والاستراتيجيات


المحررون العلميون M. S. Burtsev، E. D. Kazimirova، A. B. Lavrentiev


تم النشر بإذن من وكالة ألكسندر كورجينفسكي


يتم توفير الدعم القانوني لدار النشر من قبل شركة المحاماة Vegas-Lex.


نُشر هذا الكتاب في الأصل باللغة الإنجليزية عام 2014. وتم نشر هذه الترجمة بالتنسيق مع مطبعة جامعة أكسفورد. يتحمل الناشر وحده المسؤولية عن هذه الترجمة من العمل الأصلي ولا تتحمل مطبعة جامعة أكسفورد أي مسؤولية عن أي أخطاء أو سهو أو عدم دقة أو غموض في هذه الترجمة أو عن أي خسائر ناجمة عن الاعتماد عليها.


© نيك بوستروم، 2014

© الترجمة إلى اللغة الروسية، النشر باللغة الروسية، التصميم. مان، إيفانوف وفيربر ذ م م، 2016

* * *

هذا الكتاب يكمل بشكل جيد

نظرية اللعبة

أفيناش ديكسيت وباري نالبوف


كين جينينغز


المتعة ×

ستيفن ستروجاتز

مقدمة الشريك

قال إيديك: "لدي صديق واحد". - يدعي أن الإنسان حلقة وسيطة، ضروري للطبيعةلإنشاء تاج الخليقة: كوب من الكونياك مع شريحة من الليمون.

أركادي وبوريس ستروغاتسكي. الاثنين يبدأ يوم السبت

يعتقد المؤلف أن التهديد المميت يرتبط بإمكانية إنشاء ذكاء اصطناعي يتجاوز العقل البشري. يمكن أن تندلع كارثة في نهاية الحادي والعشرينالقرن وفي العقود القادمة. يظهر تاريخ البشرية بأكمله: عندما يكون هناك تصادم بين ممثل جنسنا، الإنسان العاقل، وأي شخص آخر يسكن كوكبنا، يفوز الشخص الأكثر ذكاءً. حتى الآن، كنا الأذكى، لكن ليس لدينا أي ضمان بأن هذا سيستمر إلى الأبد.

يكتب نيك بوستروم أنه إذا تعلمت خوارزميات الكمبيوتر الذكية كيفية إنشاء خوارزميات أكثر ذكاءً بشكل مستقل، وتلك بدورها أكثر ذكاءً، فسيكون هناك نمو هائل في الذكاء الاصطناعي، مقارنة بالناس الذين سيبدوون تقريبًا مثل النمل بجوار الناس الآن، بالمعنى الفكري بالطبع. ستظهر في العالم أنواع جديدة، وإن كانت مصطنعة، لكنها فائقة الذكاء. لا يهم ما يتبادر إلى ذهنه، محاولة إسعاد جميع الناس أو اتخاذ قرار بوقف التلوث البشري لمحيطات العالم بأكثر الطرق فعالية، أي من خلال تدمير البشرية، سيظل الناس غير قادرين على المقاومة هذا. لا توجد فرصة للمواجهة بروح فيلم Terminator، ولا تبادل لإطلاق النار مع السايبورغ الحديدي. ينتظرنا Checkmate - كما هو الحال في مبارزة بين كمبيوتر الشطرنج "Deep Blue" وطالب في الصف الأول.

على مدار المائة أو السنتين الماضيتين، أيقظت إنجازات العلم الأمل لدى البعض في حل جميع مشاكل البشرية، بينما تسببت وما زالت تسبب خوفًا جامحًا لدى البعض الآخر. وفي الوقت نفسه، لا بد من القول أن كلا وجهتي النظر تبدو مبررة تماما. بفضل العلم هُزمنا أمراض رهيبةفالبشرية اليوم قادرة على إطعام عدد غير مسبوق من البشر، ومن نقطة واحدة الكرة الأرضيةيمكنك الوصول إلى الجهة المقابلة في أقل من يوم. ومع ذلك، بفضل نفس العلم، يقوم الناس، باستخدام أحدث التقنيات العسكرية، بتدمير بعضهم البعض بسرعة وكفاءة وحشية.

هناك اتجاه مماثل - عندما لا يؤدي التطور السريع للتكنولوجيا إلى خلق فرص جديدة فحسب، بل يخلق أيضًا تهديدات غير مسبوقة - نلاحظه في مجال التكنولوجيا. أمن المعلومات. لقد نشأت صناعتنا بأكملها وما زالت موجودة فقط لأن إنشاء أشياء رائعة مثل أجهزة الكمبيوتر والإنترنت وتوزيعها على نطاق واسع قد خلق مشاكل لم يكن من الممكن تصورها في عصر ما قبل الكمبيوتر. نتيجة لظهور تقنيات المعلوماتلقد حدثت ثورة في الاتصالات البشرية. كما تم استخدامه من قبل أنواع مختلفة من مجرمي الإنترنت. والآن فقط بدأت البشرية تدرك تدريجياً مخاطر جديدة: المزيد والمزيد من الأشياء العالم الماديالتي تسيطر عليها أجهزة الكمبيوتر و برمجة، في كثير من الأحيان ناقصة، مليئة بالثقوب والضعيفة؛ الجميع عدد أكبرترتبط مثل هذه الأشياء بالإنترنت، وسرعان ما تتحول التهديدات القادمة من العالم السيبراني إلى مشكلات تتعلق بالأمن الجسدي، وربما الحياة أو الموت.

وهذا ما يجعل كتاب نيك بوستروم مثيرًا للاهتمام. الخطوة الأولى لمنع سيناريوهات الكابوس (للفرد شبكة الكمبيوترأو البشرية جمعاء) لفهم ما قد تتكون منه. يبدي بوستروم الكثير من التحفظات على أن إنشاء ذكاء اصطناعي مماثل للعقل البشري أو متفوق عليه - ذكاء اصطناعي قادر على تدمير البشرية - ليس سوى السيناريو المحتمل، وهو ما قد لا يتحقق. وبطبيعة الحال، هناك العديد من الخيارات، والتطوير تكنولوجيا الكمبيوتر، قد لا يدمر الإنسانية، لكنه سيعطينا إجابة على " السؤال الرئيسيالحياة والكون وكل ذلك" (ربما سيكون الرقم 42 حقًا، كما في رواية "دليل المسافر إلى المجرة"). هناك أمل، لكن الخطر خطير للغاية، كما يحذرنا بوستروم. في رأيي، إذا كان هناك احتمال لوجود مثل هذا التهديد الوجودي للإنسانية، فيجب التعامل معه على هذا الأساس، ومن أجل منعه وحماية نفسه منه، ينبغي بذل جهود مشتركة على نطاق عالمي.

أود أن أنهي مقدمتي باقتباس من كتاب ميخائيل ويلر "الرجل في النظام":

عندما يكرر الخيال العلمي، أي الفكر البشري، المؤطر بالصور والمؤامرات، شيئًا ما لفترة طويلة وبالتفصيل - حسنًا، لا يوجد دخان بدون نار. تحتوي أفلام الحركة المبتذلة في هوليوود حول الحروب بين البشر وحضارة الروبوتات على ذرة الحقيقة المريرة تحت قشر المشاهدة التجارية.

عندما يتم بناء برنامج غرائز قابل للتحويل في الروبوتات، وسيتم بناء إشباع هذه الغرائز كحاجة أساسية وغير مشروطة، وسيصل هذا إلى مستوى التكاثر الذاتي - عندها، يا شباب، توقفوا عن محاربة التدخين والكحول، لأنه سيكون الوقت المناسب للشرب والتدخين أمام هناء لنا جميعًا.

إيفجيني كاسبيرسكي,المدير التنفيذيكاسبيرسكي لاب

قصة غير مكتملةعن العصافير

في أحد الأيام، في خضم التعشيش، جلست العصافير، التي سئمت من العمل الشاق لعدة أيام، لتستريح عند غروب الشمس وتتحدث عن هذا وذاك.

"نحن صغار جدًا وضعفاء للغاية." تخيل كم ستكون الحياة أسهل لو كان لدينا بومة كمساعد لنا! - زقزق عصفور حالمًا. - يمكنها بناء أعشاش لنا...

- نعم! - وافق آخر. – وأيضا نعتني بكبار السن والفراخ لدينا …

وأضاف ثالث: «وعلمنا واحفظنا من قطة الجيران».

ثم اقترح باستوس، العصفور الأكبر:

– دع الكشافة يطيرون في اتجاهات مختلفة بحثًا عن البومة التي سقطت من العش. ومع ذلك، فإن بيضة البومة، والغراب، وحتى ابن عرس الصغير ستفي بالغرض. سيكون هذا الاكتشاف أعظم نجاح لقطيعنا! مثل الوقت الذي اكتشفنا فيه مصدرًا لا ينتهي للحبوب في الفناء الخلفي لمنزلنا.

وكانت العصافير، متحمسة للغاية، تغرد بأعلى ما تستطيع.

ويبدو أن العصفور الأعور Skronfinkle، وهو عصفور لاذع وصعب المزاج، هو الوحيد الذي شكك في مدى استصوابه لهذه المؤسسة.

وقال باقتناع: “لقد اخترنا طريقاً كارثياً”. - ألا ينبغي عليك أولاً أن تدرس بجدية قضايا ترويض وتدجين البوم قبل السماح بدخول شيء كهذا إلى بيئتك؟ مخلوق خطير?

اعترض عليه باستوس قائلاً: "يبدو لي أن فن ترويض البوم ليس بالمهمة السهلة". العثور على بيضة البومة أمر صعب للغاية. لذلك دعونا نبدأ بالبحث. بمجرد أن نتمكن من تربية البومة، سنفكر في مشاكل التعليم.

- خطة شريرة! زقزق سكرونفينكل بعصبية.

لكن لم يعد أحد يستمع إليه. في اتجاه باستوس، ارتفع قطيع العصافير في الهواء وانطلق.

ماذا سيحدث لو تفوقت الآلات على البشر في الذكاء؟ هل سيساعدوننا أم يدمرون الجنس البشري؟ هل يمكننا أن نتجاهل مشكلة تطور الذكاء الاصطناعي اليوم ونشعر بالأمان التام؟

يحاول نيك بوستروم في كتابه فهم المشكلة التي تواجه البشرية فيما يتعلق باحتمال ظهور الذكاء الفائق، وتحليل الاستجابة لها.

خصائص الكتاب

تاريخ الكتابة: 2014
اسم: . مراحل. التهديدات. الاستراتيجيات

المجلد: 760 صفحة، 69 رسماً توضيحياً
ردمك: 978-5-00057-810-0
المترجم: سيرجي فيلين
صاحب حقوق الطبع والنشر: مان، إيفانوف وفيربر

مقدمة كتاب الذكاء الاصطناعي

يعتقد المؤلف أن التهديد المميت يرتبط بإمكانية إنشاء ذكاء اصطناعي يتجاوز العقل البشري. يمكن أن تندلع كارثة في نهاية القرن الحادي والعشرين وفي العقود المقبلة. يظهر تاريخ البشرية بأكمله: عندما يكون هناك تصادم بين ممثل جنسنا، الإنسان العاقل، وأي شخص آخر يسكن كوكبنا، يفوز الشخص الأكثر ذكاءً. حتى الآن، كنا الأذكى، لكن ليس لدينا أي ضمان بأن هذا سيستمر إلى الأبد.

يكتب نيك بوستروم أنه إذا تعلمت خوارزميات الكمبيوتر الذكية كيفية إنشاء خوارزميات أكثر ذكاءً بشكل مستقل، وتلك بدورها أكثر ذكاءً، فسيكون هناك نمو هائل في الذكاء الاصطناعي، مقارنة بالناس الذين سيبدوون تقريبًا مثل النمل بجوار الناس الآن، بالمعنى الفكري بالطبع. ستظهر في العالم أنواع جديدة، وإن كانت مصطنعة، لكنها فائقة الذكاء. لا يهم ما "يتبادر إلى الذهن"، أو محاولة إسعاد جميع الناس أو اتخاذ قرار بوقف التلوث البشري المنشأ لمحيطات العالم بأكثر الطرق فعالية، أي من خلال تدمير البشرية، سيظل الناس غير قادرين على مقاومة هذا. لا توجد فرصة للمواجهة بروح فيلم Terminator، ولا تبادل لإطلاق النار مع السايبورغ الحديدي. ينتظرنا Checkmate - كما هو الحال في مبارزة بين كمبيوتر الشطرنج "Deep Blue" وطالب في الصف الأول.

على مدار المائة أو السنتين الماضيتين، أيقظت إنجازات العلم الأمل لدى البعض في حل جميع مشاكل البشرية، بينما تسببت وما زالت تسبب خوفًا جامحًا لدى البعض الآخر. وفي الوقت نفسه، لا بد من القول أن كلا وجهتي النظر تبدو مبررة تماما. بفضل العلم، تم هزيمة الأمراض الرهيبة، والإنسانية اليوم قادرة على إطعام عدد غير مسبوق من الناس، ومن نقطة واحدة على الكرة الأرضية يمكنك الوصول إلى العكس في أقل من يوم واحد. ومع ذلك، بفضل نفس العلم، يقوم الناس، باستخدام أحدث التقنيات العسكرية، بتدمير بعضهم البعض بسرعة وكفاءة وحشية.

ونحن نلاحظ اتجاها مماثلا - عندما لا يؤدي التطور السريع للتكنولوجيا إلى تكوين فرص جديدة فحسب، بل يخلق أيضا تهديدات غير مسبوقة - في مجال أمن المعلومات. لقد نشأت صناعتنا بأكملها وهي موجودة فقط لأن إنشاء أشياء رائعة مثل أجهزة الكمبيوتر والإنترنت وتوزيعها على نطاق واسع قد خلق مشاكل لم يكن من الممكن تصورها في عصر ما قبل الكمبيوتر. نتيجة لظهور تكنولوجيا المعلومات، حدثت ثورة في الاتصالات البشرية. كما تم استخدامه من قبل أنواع مختلفة من مجرمي الإنترنت. والآن فقط بدأت البشرية تدرك تدريجيًا مخاطر جديدة: يتم التحكم في المزيد والمزيد من كائنات العالم المادي باستخدام أجهزة الكمبيوتر والبرامج، التي غالبًا ما تكون غير كاملة ومليئة بالثغرات والضعيفة؛ ومع اتصال المزيد والمزيد من هذه الأشياء بالإنترنت، سرعان ما أصبحت التهديدات الصادرة عن العالم السيبراني تتعلق بالأمن الجسدي وربما مشكلات تتعلق بالحياة والموت.

وهذا ما يجعل كتاب نيك بوستروم مثيرًا للاهتمام. الخطوة الأولى لمنع السيناريوهات الكابوسية (لشبكة كمبيوتر واحدة أو للبشرية جمعاء) هي فهم ما قد تكون عليه. يبدي بوستروم الكثير من التحفظات على أن خلق ذكاء اصطناعي مماثل للعقل البشري أو متفوق عليه - ذكاء اصطناعي قادر على تدمير البشرية - ليس سوى سيناريو محتمل قد لا يؤتي ثماره. بالطبع، هناك العديد من الخيارات، وتطور تكنولوجيا الكمبيوتر قد لا يدمر البشرية، لكنه سيعطينا الإجابة على "السؤال الرئيسي للحياة والكون وكل شيء" (ربما سيكون الرقم 42 حقًا، كما في رواية "دليل المسافر إلى المجرة"). هناك أمل، لكن الخطر خطير للغاية، كما يحذرنا بوستروم. في رأيي، إذا كان هناك احتمال لوجود مثل هذا التهديد الوجودي للإنسانية، فيجب التعامل معه على هذا الأساس، ومن أجل منعه وحماية نفسه منه، ينبغي بذل جهود مشتركة على نطاق عالمي.

مقدمة

هناك مادة معينة داخل جمجمتنا، والتي بفضلها يمكننا، على سبيل المثال، القراءة. تتمتع هذه المادة - الدماغ البشري - بقدرات غائبة في الثدييات الأخرى. في الواقع، يدين الناس بوضعهم المهيمن على هذا الكوكب على وجه التحديد السمات المميزة. وتتميز بعض الحيوانات بعضلات قوية وأنياب حادة، ولكن لا شيء منها كائن حيباستثناء الإنسان، ليس موهوبًا بمثل هذا العقل الكامل. نظرًا لمستوانا الفكري العالي، فقد تمكنا من إنشاء أدوات مثل اللغة والتكنولوجيا والمعقدة منظمة اجتماعية. وبمرور الوقت، تعززت ميزتنا وتوسعت، مع تقدم كل جيل جديد، بناءً على إنجازات أسلافه، إلى الأمام.

إذا قاموا بتطوير ذكاء اصطناعي متفوق عليه مستوى عامتطور العقل البشري، ثم سيظهر في العالم ذكاء فائق القوة. ومن ثم فإن مصير جنسنا البشري سوف يعتمد بشكل مباشر على تصرفات هذه الأنظمة التقنية الذكية - تمامًا كما هو الحال مع مصير الغوريلا اليوم في إلى حد كبيرلا تحددها الرئيسيات نفسها، بل نوايا الإنسان.

ومع ذلك، فإن للإنسانية ميزة لا يمكن إنكارها، لأنها تخلق الذكاء الأنظمة التقنية. من حيث المبدأ، من الذي يمنعكم من اختراع مثل هذا الذكاء الفائق الذي سيأخذ القيم الإنسانية العالمية تحت حمايته؟ وبطبيعة الحال، لدينا أسباب وجيهة للغاية لحماية أنفسنا. في من الناحية العمليةسيتعين علينا التعامل معها السؤال الأصعبالتحكم - كيفية التحكم في خطط وأفعال العقل الفائق. علاوة على ذلك، سيكون الناس قادرين على استخدام فرصة واحدة. بمجرد ظهور الذكاء الاصطناعي غير الودي (AI)، سيبدأ على الفور في التدخل في جهودنا للتخلص منه أو على الأقل ضبط إعداداته. وبعد ذلك سيتم تحديد مصير البشرية.

أحاول في كتابي فهم المشكلة التي يواجهها الناس مع احتمال الذكاء الفائق، وتحليل استجاباتهم. ولعل أخطر وأخطر جدول أعمال تلقته البشرية على الإطلاق ينتظرنا. وبغض النظر عما إذا فزنا أو خسرنا، فمن الممكن أن يكون هذا التحدي هو الأخير بالنسبة لنا. أنا لا أقدم أي حجج هنا لصالح نسخة أو أخرى: هل نحن على وشك تحقيق تقدم كبير في إنشاء الذكاء الاصطناعي؟ هل من الممكن التنبؤ بدقة معينة بموعد حدوث حدث ثوري معين؟ على الأرجح - في هذا القرن. ومن غير المرجح أن يذكر أي شخص موعدًا نهائيًا أكثر تحديدًا.

الذكاء الاصطناعي. مراحل. التهديدات. الاستراتيجيات - نيك بوستروم (تنزيل)

(جزء من مقدمة الكتاب)

حديثاً مؤسس تسلاتقوم شركة Motors و SpaceX Elon Musk بإنشاء ذكاء اصطناعي لاستدعاء شيطان سيكون من المستحيل السيطرة عليه. ويشارك ماسك شكوكه مع الفيلسوف البريطاني نيك بوستروم، الذي أوصى رجل الأعمال متابعيه على تويتر بكتابه الأخير بعنوان "الذكاء الفائق: المسارات والمخاطر والاستراتيجيات". في حين يتنبأ بعض علماء المستقبل بمستقبل مريح للناس نتيجة لاستبدال العمل البشري على نطاق واسع بالعمل الآلي، يرى نيك بوستروم أن الذكاء الاصطناعي يشكل تهديدًا لوجود جنسنا البشري بأكمله. تعرفت Apparat على أفكار Nick Bostrom واكتشفت كيف يمكن إنقاذ البشرية في رأيه.

نيك بوستروم
فيلسوف وأستاذ بجامعة أكسفورد

قبل عدة سنوات، أدرجته مجلة فورين بوليسي في قائمتها لأهم 100 مفكر على هذا الكوكب. يؤمن نيك بوستروم بتمكين الناس من خلال التكنولوجيا. في عام 1998، أسس رابطة ما بعد الإنسانية العالمية (التي تسمى الآن الإنسانية +) للنضال من أجل الاعتراف بما بعد الإنسانية كمجال كامل للمعرفة العلمية. اكتسب بوستروم شهرة خارج الأوساط الأكاديمية عندما وصف مفهوم انقراض الإنسان في كتاب المخاطر الكارثية العالمية. بوستروم هو مدير معهد أكسفورد لمستقبل الإنسانية. الآن يحاول جذب انتباه عامإلى تهديد آخر لحضارتنا - الذكاء الفائق.

سوف يصبح الذكاء الاصطناعي قريباً أكثر ذكاءً منا

بالنسبة لنيك بوستروم، لا يهم مجال المعرفة الذي سيقودنا إلى خلق الذكاء الفائق. سواء كانوا المبرمجين الذين كتبوا برنامجًا يمكنه التفكير، أو علماء الأعصاب، إعادة إنشائهعمل الدماغ البشري. الشيء الرئيسي هو أن هذا سيحدث بشكل أسرع مما نعتقد. ويتوقع معظم الخبراء الذين شملهم استطلاع بوستروم إنشاء ذكاء اصطناعي ذكي بحلول عام 2040 أو 2050.

يتفوق الذكاء الاصطناعي بالفعل على الذكاء البشري في العديد من المجالات. نعم لسنوات عديدة أنواع مختلفةالذكاء الاصطناعي يهزم أبطال جميع أنواع بطولات الألعاب، سواء كانت الشطرنج أو البوكر. قد لا تبدو مثل هذه الإنجازات مثيرة للإعجاب بشكل خاص، ولكن ذلك لأن مطالبنا بالمذهلين تتكيف بسرعة مع التقدم.

ونظرًا للقدرة على التعلم الذاتي، سيتحول الذكاء الاصطناعي إلى ذكاء فائق

وفقا لبوستروم، فإن الذكاء الاصطناعي سوف يشبه في البداية دماغ الطفل. ومثل الطفل، سيكون قادرًا على التعلم. سيتوقف الناس عن محاولة الاستثمار قدر الإمكان معلومات اكثرفي البرنامج، ولكن سوف يعلمه أن يفهم نفسه العالم. سيكون وجود الذكاء الفائق ممكنًا من خلال التحسين الذاتي المستمر.

من المهم بالنسبة لنا إنشاء ذكاء اصطناعي ذكي بما يكفي للتعلم من أخطائه. سيكون قادرًا على تحسين نفسه إلى ما لا نهاية. سيكون الإصدار الأول قادرًا على إنشاء نسخة ثانية، والتي ستكون أفضل، والثانية، كونها أكثر ذكاءً من النسخة الأصلية، ستنشئ نسخة ثالثة أكثر تقدمًا، وهكذا. في ظل ظروف معينة، يمكن تكرار عملية التحسين الذاتي هذه حتى يتم تحقيق الانفجار الفكري - اللحظة التي يقفز فيها المستوى الفكري للنظام إلى ما هو أبعد من ذلك. وقت قصيرمن مستوى متواضع نسبياً إلى مستوى الذكاء الفائق.

سيكون للذكاء الفائق احتياجاته وأهدافه الخاصة

الطريقة التي يفكر بها الذكاء الاصطناعي ستكون مختلفة عن طريقتنا. لا يحاول نيك بوستروم التنبؤ بالضبط بكيفية عمل دوافع الذكاء الفائق. ولكن مهما كانت أهدافه، فإنه سيحتاج إلى الموارد لتحقيقها.

قد يكون الذكاء الاصطناعي أقل إنسانية من كائن فضائي. ليس من المستغرب أن أي كائن فضائي ذكي يمكن تحفيزه على العمل من خلال أشياء مثل الجوع أو درجة الحرارة أو الإصابة أو المرض أو تهديد الحياة أو الرغبة في إنجاب ذرية. الذكاء الاصطناعي، في الواقع، لن يكون مهتمًا بأي مما سبق. يمكن للمرء أن يتخيل وجود الذكاء الاصطناعي الذي هو الوحيد الهدف الأسمىسوف يحسب كل حبات الرمل في جزيرة بوراكاي أو يجد التمثيل العشري للرقم π.

سيحاول الذكاء الخارق استخدام الناس ضد إرادتهم

للوصول إلى الموارد، سيحاول الذكاء الفائق العثور على وسيط. وفقًا لبوستروم، حتى بدون الاتصال بالشبكة أو القدرة على الظهور النشاط البدنيسيظل الذكاء الفائق قادرًا على تحقيق أهدافه. لأنه حتى عندما نصل إلى مرحلة النضج التكنولوجي، أي أننا نصنع كل التقنيات التي يمكن إنشاؤها، فإن نقطة ضعفنا الرئيسية ستظل هي أنفسنا.

الرجل هو النظام الأكثر موثوقية. اليوم، غالبًا ما يلجأ المتسللون إلى مبادئ الهندسة الاجتماعية من أجل الوصول إلى جهاز كمبيوتر شخص آخر. وإذا تبين أن المتسلل المتلاعب يتمتع بالذكاء الفائق، فيمكننا أن نفترض أنه سيجد بسهولة شريكًا أو سيبدأ ببساطة في استخدامنا ضد إرادتنا كذراعيه وساقيه.

قد "يريد" الذكاء الفائق أن يظل هو الذكاء الوحيد

يرى بعض الفلاسفة والعلماء في الذكاء الاصطناعي مجرد أداة لتحسين نوعية حياتنا. ومنهم الفيلسوف الأمريكي جون سيرل: الذي يعتبر ظهور الوعي الذاتي في الآلات أمرا مستحيلا، لأن ذلك يتطلب وجود عمليات فيزيائية وكيميائية مماثلة لتلك التي تحدث في الدماغ البشري. ومع ذلك، يعتقد بوستروم أنه في مرحلة ما، سيتوقف الذكاء الفائق عن كونه أداة، ولكنه سيتحول إلى كائن كامل له احتياجاته الخاصة، وقد لا يكون الاهتمام بالحفاظ على الجنس البشري واحدًا منها. ولن نكون إلا عقبة في طريقه.

الإنسان يمثل نفسه مورد مفيد(ذرات مجمعة بشكل ملائم)، ويعتمد بقاؤها وازدهارها على موارد أخرى. إن تطوير الذكاء الاصطناعي الذي يحتاج إلى هذه الموارد يمكن أن يؤدي بسهولة إلى انقراض البشرية. لذلك سيأتي الوقت لمجتمع متطور للغاية من الناحية التكنولوجية، بما في ذلك الكثير الهياكل المعقدةوالتي سيكون الكثير منها أكثر ذكاءً من أي شيء على هذا الكوكب اليوم. وسيكون هذا وقت المعجزات الاقتصادية والتكنولوجية. ولكن لن يبقى أحد يمكنه الاستفادة منه. سوف تسود ديزني لاند على الأرض، حيث لن يكون هناك أطفال.

يجب أن تتعلم البشرية إبقاء التكنولوجيا تحت السيطرة

لا ينكر نيك بوستروم إمكانية إنشاء ذكاء اصطناعي ودود أو التحكم فيه. بعد كل شيء، يعترف الفيلسوف أننا بحاجة حقًا إلى تقنيات ذكية ستساعدنا في التعامل مع المشكلات الملحة. والسؤال الوحيد هو الحد من المخاطر، وخاصة خطر الانقراض.

فإذا كان هناك انفجار فكري يهددنا بالانقراض، فيجب علينا أن نفهم ما إذا كان بإمكاننا التحكم في عملية التفجير. واليوم، قد يكون من المنطقي أكثر تسريع الجهود الرامية إلى حل مشكلة السيطرة بدلاً من إيقاف الأبحاث في مجال الذكاء الاصطناعي مؤقتاً. لكن في الوقت الحالي، يعمل ستة أشخاص على حل مشكلة التحكم، بينما يعمل العشرات، إن لم يكن مئات الآلاف، على خلق الذكاء الاصطناعي.

علم يعني مسلح

ويشير بوستروم إلى أن البشرية ليست مستعدة بعد لمواجهة الذكاء الفائق ولن تكون مستعدة لسنوات عديدة. لكن على الرغم من أن القفزة الفكرية قد لا تحدث لبعض الوقت، إلا أنه يجب علينا الانتباه إليها المشاكل المحتملةالآن. العديد من العلماء، في سعيهم لخلق الذكاء الفائق، ينسون المخاطر.

الشيء الأكثر منطقية بالنسبة للطفل الذي يحمل قنبلة موقوتة في يديه هو وضع القنبلة بعناية على الأرض، والخروج بسرعة من الغرفة والاتصال بشخص بالغ. ولكن ماذا لو كانت غرفتنا بأكملها مليئة بالأطفال ويمكن لكل طفل الوصول بسهولة إلى الزناد. إن فرصنا جميعًا في التخلص من لعبة خطيرة منخفضة للغاية. لا بد أن يضغط بعض الأحمق الصغير على الزر فقط ليرى ما سيحدث.

نيك بوستروم

نيك بوستروم

الذكاء الفائق

المسارات والمخاطر والاستراتيجيات

المحررون العلميون M. S. Burtsev، E. D. Kazimirova، A. B. Lavrentiev

تم النشر بإذن من وكالة ألكسندر كورجينفسكي

يتم توفير الدعم القانوني لدار النشر من قبل شركة المحاماة Vegas-Lex.

نُشر هذا الكتاب في الأصل باللغة الإنجليزية عام 2014. وتم نشر هذه الترجمة بالتنسيق مع مطبعة جامعة أكسفورد. يتحمل الناشر وحده المسؤولية عن هذه الترجمة من العمل الأصلي ولا تتحمل مطبعة جامعة أكسفورد أي مسؤولية عن أي أخطاء أو سهو أو عدم دقة أو غموض في هذه الترجمة أو عن أي خسائر ناجمة عن الاعتماد عليها.

© نيك بوستروم، 2014

© الترجمة إلى اللغة الروسية، النشر باللغة الروسية، التصميم. مان، إيفانوف وفيربر ذ م م، 2016

* * *

هذا الكتاب يكمل بشكل جيد

أفيناش ديكسيت وباري نالبوف

ستيفن ستروجاتز

مقدمة الشريك

قال إيديك: "لدي صديق واحد". "يدعي أن الإنسان هو الحلقة الوسيطة التي تحتاجها الطبيعة لخلق تاج الخليقة: كوب من الكونياك مع شريحة من الليمون.

أركادي وبوريس ستروغاتسكي. الاثنين يبدأ يوم السبت

يعتقد المؤلف أن التهديد المميت يرتبط بإمكانية إنشاء ذكاء اصطناعي يتجاوز العقل البشري. يمكن أن تندلع كارثة في نهاية القرن الحادي والعشرين وفي العقود المقبلة. يظهر تاريخ البشرية بأكمله: عندما يكون هناك تصادم بين ممثل جنسنا، الإنسان العاقل، وأي شخص آخر يسكن كوكبنا، يفوز الشخص الأكثر ذكاءً. حتى الآن، كنا الأذكى، لكن ليس لدينا أي ضمان بأن هذا سيستمر إلى الأبد.

يكتب نيك بوستروم أنه إذا تعلمت خوارزميات الكمبيوتر الذكية كيفية إنشاء خوارزميات أكثر ذكاءً بشكل مستقل، وتلك بدورها أكثر ذكاءً، فسيكون هناك نمو هائل في الذكاء الاصطناعي، مقارنة بالناس الذين سيبدوون تقريبًا مثل النمل بجوار الناس الآن، بالمعنى الفكري بالطبع. ستظهر في العالم أنواع جديدة، وإن كانت مصطنعة، لكنها فائقة الذكاء. لا يهم ما يتبادر إلى ذهنه، محاولة إسعاد جميع الناس أو اتخاذ قرار بوقف التلوث البشري لمحيطات العالم بأكثر الطرق فعالية، أي من خلال تدمير البشرية، سيظل الناس غير قادرين على المقاومة هذا. لا توجد فرصة للمواجهة بروح فيلم Terminator، ولا تبادل لإطلاق النار مع السايبورغ الحديدي. ينتظرنا Checkmate - كما هو الحال في مبارزة بين كمبيوتر الشطرنج "Deep Blue" وطالب في الصف الأول.

على مدار المائة أو السنتين الماضيتين، أيقظت إنجازات العلم الأمل لدى البعض في حل جميع مشاكل البشرية، بينما تسببت وما زالت تسبب خوفًا جامحًا لدى البعض الآخر. وفي الوقت نفسه، لا بد من القول أن كلا وجهتي النظر تبدو مبررة تماما. بفضل العلم، تم هزيمة الأمراض الرهيبة، والإنسانية اليوم قادرة على إطعام عدد غير مسبوق من الناس، ومن نقطة واحدة على الكرة الأرضية يمكنك الوصول إلى العكس في أقل من يوم واحد. ومع ذلك، بفضل نفس العلم، يقوم الناس، باستخدام أحدث التقنيات العسكرية، بتدمير بعضهم البعض بسرعة وكفاءة وحشية.

ونحن نشهد اتجاها مماثلا - عندما لا يؤدي التطور السريع للتكنولوجيا إلى تكوين فرص جديدة فحسب، بل يخلق أيضا تهديدات غير مسبوقة - في مجال أمن المعلومات. لقد نشأت صناعتنا بأكملها وهي موجودة فقط لأن إنشاء أشياء رائعة مثل أجهزة الكمبيوتر والإنترنت وتوزيعها على نطاق واسع قد خلق مشاكل لم يكن من الممكن تصورها في عصر ما قبل الكمبيوتر. نتيجة لظهور تكنولوجيا المعلومات، حدثت ثورة في الاتصالات البشرية. كما تم استخدامه من قبل أنواع مختلفة من مجرمي الإنترنت. والآن فقط بدأت البشرية تدرك تدريجيًا مخاطر جديدة: يتم التحكم في المزيد والمزيد من كائنات العالم المادي باستخدام أجهزة الكمبيوتر والبرامج، التي غالبًا ما تكون غير كاملة ومليئة بالثغرات والضعيفة؛ ومع اتصال المزيد والمزيد من هذه الأشياء بالإنترنت، سرعان ما أصبحت التهديدات الصادرة عن العالم السيبراني تتعلق بالأمن المادي وربما مشكلات تتعلق بالحياة والموت.

وهذا ما يجعل كتاب نيك بوستروم مثيرًا للاهتمام. الخطوة الأولى لمنع السيناريوهات الكابوسية (لشبكة كمبيوتر واحدة أو للبشرية جمعاء) هي فهم ما قد تكون عليه. يبدي بوستروم الكثير من التحفظات على أن خلق ذكاء اصطناعي مشابه للعقل البشري أو متفوق عليه - ذكاء اصطناعي يمكنه تدمير البشرية - ليس سوى سيناريو محتمل قد لا يؤتي ثماره. بالطبع، هناك العديد من الخيارات، وتطور تكنولوجيا الكمبيوتر قد لا يدمر البشرية، لكنه سيعطينا الإجابة على "السؤال الرئيسي للحياة والكون وكل شيء" (ربما سيكون الرقم 42 حقًا، كما في رواية "دليل المسافر إلى المجرة"). هناك أمل، لكن الخطر خطير للغاية، كما يحذرنا بوستروم. في رأيي، إذا كان هناك احتمال لوجود مثل هذا التهديد الوجودي للإنسانية، فيجب التعامل معه على هذا الأساس، ومن أجل منعه وحماية نفسه منه، ينبغي بذل جهود مشتركة على نطاق عالمي.

أود أن أنهي مقدمتي باقتباس من كتاب ميخائيل ويلر "الرجل في النظام":

عندما يكرر الخيال العلمي، أي الفكر البشري، المؤطر بالصور والمؤامرات، شيئًا ما لفترة طويلة وبالتفصيل - حسنًا، لا يوجد دخان بدون نار. تحتوي أفلام الحركة المبتذلة في هوليوود حول الحروب بين البشر وحضارة الروبوتات على ذرة الحقيقة المريرة تحت قشر المشاهدة التجارية.

عندما يتم بناء برنامج غرائز قابل للتحويل في الروبوتات، وسيتم بناء إشباع هذه الغرائز كحاجة أساسية وغير مشروطة، وسيصل هذا إلى مستوى التكاثر الذاتي - عندها، يا شباب، توقفوا عن محاربة التدخين والكحول، لأنه سيكون الوقت المناسب للشرب والتدخين أمام هناء لنا جميعًا.

إيفجيني كاسبيرسكي، المدير العام لشركة كاسبرسكي لاب

قصة العصافير غير المكتملة

في أحد الأيام، في خضم التعشيش، جلست العصافير، التي سئمت من العمل الشاق لعدة أيام، لتستريح عند غروب الشمس وتتحدث عن هذا وذاك.

"نحن صغار جدًا وضعفاء للغاية." تخيل كم ستكون الحياة أسهل لو كان لدينا بومة كمساعد لنا! - زقزق عصفور حالمًا. - يمكنها بناء أعشاش لنا...

- نعم! - وافق آخر. – وأيضا نعتني بكبار السن والفراخ لدينا …

وأضاف ثالث: «وعلمنا واحفظنا من قطة الجيران».

ثم اقترح باستوس، العصفور الأكبر:

– دع الكشافة يطيرون في اتجاهات مختلفة بحثًا عن البومة التي سقطت من العش. ومع ذلك، فإن بيضة البومة، والغراب، وحتى ابن عرس الصغير ستفي بالغرض. سيكون هذا الاكتشاف أعظم نجاح لقطيعنا! مثل الوقت الذي اكتشفنا فيه مصدرًا لا ينتهي للحبوب في الفناء الخلفي لمنزلنا.

وكانت العصافير، متحمسة للغاية، تغرد بأعلى ما تستطيع.

ويبدو أن Skronfinkle ذو العين الواحدة فقط، وهو عصفور لاذع ذو مزاج صعب، شكك في استصواب هذا المشروع.

وقال باقتناع: “لقد اخترنا طريقاً كارثياً”. - ألا يجب عليك أولاً أن تدرس بجدية قضايا ترويض وتدجين البوم قبل السماح لمثل هذا المخلوق الخطير بالدخول إلى بيئتك؟

اعترض عليه باستوس قائلاً: "يبدو لي أن فن ترويض البوم ليس بالمهمة السهلة". العثور على بيضة البومة أمر صعب للغاية. لذلك دعونا نبدأ بالبحث. بمجرد أن نتمكن من تربية البومة، سنفكر في مشاكل التعليم.

- خطة شريرة! زقزق سكرونفينكل بعصبية.

لكن لم يعد أحد يستمع إليه. في اتجاه باستوس، ارتفع قطيع العصافير في الهواء وانطلق.

بقيت العصافير فقط في مكانها، بعد أن قررت معرفة كيفية ترويض البوم. وسرعان ما أدركوا أن باستوس كان على حق: فقد تبين أن المهمة كانت صعبة للغاية، خاصة في ظل عدم وجود البومة نفسها التي يمكن التدرب عليها. إلا أن الطيور واصلت دراسة المشكلة باجتهاد، لأنها كانت تخشى أن يعود السرب ببيضة البومة قبل أن تكتشف سر كيفية التحكم في سلوك البومة.

مقدمة

هناك مادة معينة داخل جمجمتنا، وذلك بفضل...

نيك بوستروم

الذكاء الفائق

المسارات والمخاطر والاستراتيجيات

المحررون العلميون M. S. Burtsev، E. D. Kazimirova، A. B. Lavrentiev

تم النشر بإذن من وكالة ألكسندر كورجينفسكي

يتم توفير الدعم القانوني لدار النشر من قبل شركة المحاماة Vegas-Lex.

نُشر هذا الكتاب في الأصل باللغة الإنجليزية عام 2014. وتم نشر هذه الترجمة بالتنسيق مع مطبعة جامعة أكسفورد. يتحمل الناشر وحده المسؤولية عن هذه الترجمة من العمل الأصلي ولا تتحمل مطبعة جامعة أكسفورد أي مسؤولية عن أي أخطاء أو سهو أو عدم دقة أو غموض في هذه الترجمة أو عن أي خسائر ناجمة عن الاعتماد عليها.

© نيك بوستروم، 2014

© الترجمة إلى اللغة الروسية، النشر باللغة الروسية، التصميم. مان، إيفانوف وفيربر ذ م م، 2016

هذا الكتاب يكمل بشكل جيد

أفيناش ديكسيت وباري نالبوف

كين جينينغز

ستيفن ستروجاتز

مقدمة الشريك

قال إيديك: "لدي صديق واحد". "يدعي أن الإنسان هو الحلقة الوسيطة التي تحتاجها الطبيعة لخلق تاج الخليقة: كوب من الكونياك مع شريحة من الليمون.

أركادي وبوريس ستروغاتسكي. الاثنين يبدأ يوم السبت

يعتقد المؤلف أن التهديد المميت يرتبط بإمكانية إنشاء ذكاء اصطناعي يتجاوز العقل البشري. يمكن أن تندلع كارثة في نهاية القرن الحادي والعشرين وفي العقود المقبلة. يظهر تاريخ البشرية بأكمله: عندما يكون هناك تصادم بين ممثل جنسنا، الإنسان العاقل، وأي شخص آخر يسكن كوكبنا، يفوز الشخص الأكثر ذكاءً. حتى الآن، كنا الأذكى، لكن ليس لدينا أي ضمان بأن هذا سيستمر إلى الأبد.

يكتب نيك بوستروم أنه إذا تعلمت خوارزميات الكمبيوتر الذكية كيفية إنشاء خوارزميات أكثر ذكاءً بشكل مستقل، وتلك بدورها أكثر ذكاءً، فسيكون هناك نمو هائل في الذكاء الاصطناعي، مقارنة بالناس الذين سيبدوون تقريبًا مثل النمل بجوار الناس الآن، بالمعنى الفكري بالطبع. ستظهر في العالم أنواع جديدة، وإن كانت مصطنعة، لكنها فائقة الذكاء. لا يهم ما يتبادر إلى ذهنه، محاولة إسعاد جميع الناس أو اتخاذ قرار بوقف التلوث البشري لمحيطات العالم بأكثر الطرق فعالية، أي من خلال تدمير البشرية، سيظل الناس غير قادرين على المقاومة هذا. لا توجد فرصة للمواجهة بروح فيلم Terminator، ولا تبادل لإطلاق النار مع السايبورغ الحديدي. ينتظرنا Checkmate - كما هو الحال في مبارزة بين كمبيوتر الشطرنج "Deep Blue" وطالب في الصف الأول.

على مدار المائة أو السنتين الماضيتين، أيقظت إنجازات العلم الأمل لدى البعض في حل جميع مشاكل البشرية، بينما تسببت وما زالت تسبب خوفًا جامحًا لدى البعض الآخر. وفي الوقت نفسه، لا بد من القول أن كلا وجهتي النظر تبدو مبررة تماما. بفضل العلم، تم هزيمة الأمراض الرهيبة، والإنسانية اليوم قادرة على إطعام عدد غير مسبوق من الناس، ومن نقطة واحدة على الكرة الأرضية يمكنك الوصول إلى العكس في أقل من يوم واحد. ومع ذلك، بفضل نفس العلم، يقوم الناس، باستخدام أحدث التقنيات العسكرية، بتدمير بعضهم البعض بسرعة وكفاءة وحشية.

ونحن نشهد اتجاها مماثلا - عندما لا يؤدي التطور السريع للتكنولوجيا إلى تكوين فرص جديدة فحسب، بل يخلق أيضا تهديدات غير مسبوقة - في مجال أمن المعلومات. لقد نشأت صناعتنا بأكملها وهي موجودة فقط لأن إنشاء أشياء رائعة مثل أجهزة الكمبيوتر والإنترنت وتوزيعها على نطاق واسع قد خلق مشاكل لم يكن من الممكن تصورها في عصر ما قبل الكمبيوتر. نتيجة لظهور تكنولوجيا المعلومات، حدثت ثورة في الاتصالات البشرية. كما تم استخدامه من قبل أنواع مختلفة من مجرمي الإنترنت. والآن فقط بدأت البشرية تدرك تدريجيًا مخاطر جديدة: يتم التحكم في المزيد والمزيد من كائنات العالم المادي باستخدام أجهزة الكمبيوتر والبرامج، التي غالبًا ما تكون غير كاملة ومليئة بالثغرات والضعيفة؛ ومع اتصال المزيد والمزيد من هذه الأشياء بالإنترنت، سرعان ما أصبحت التهديدات الصادرة عن العالم السيبراني تتعلق بالأمن المادي وربما مشكلات تتعلق بالحياة والموت.

وهذا ما يجعل كتاب نيك بوستروم مثيرًا للاهتمام. الخطوة الأولى لمنع السيناريوهات الكابوسية (لشبكة كمبيوتر واحدة أو للبشرية جمعاء) هي فهم ما قد تكون عليه. يبدي بوستروم الكثير من التحفظات على أن خلق ذكاء اصطناعي مشابه للعقل البشري أو متفوق عليه - ذكاء اصطناعي يمكنه تدمير البشرية - ليس سوى سيناريو محتمل قد لا يؤتي ثماره. بالطبع، هناك العديد من الخيارات، وتطور تكنولوجيا الكمبيوتر قد لا يدمر البشرية، لكنه سيعطينا الإجابة على "السؤال الرئيسي للحياة والكون وكل شيء" (ربما سيكون الرقم 42 حقًا، كما في رواية "دليل المسافر إلى المجرة"). هناك أمل، لكن الخطر خطير للغاية، كما يحذرنا بوستروم. في رأيي، إذا كان هناك احتمال لوجود مثل هذا التهديد الوجودي للإنسانية، فيجب التعامل معه على هذا الأساس، ومن أجل منعه وحماية نفسه منه، ينبغي بذل جهود مشتركة على نطاق عالمي.

أود أن أنهي مقدمتي باقتباس من كتاب ميخائيل ويلر "الرجل في النظام":

عندما يكرر الخيال العلمي، أي الفكر البشري، المؤطر بالصور والمؤامرات، شيئًا ما لفترة طويلة وبالتفصيل - حسنًا، لا يوجد دخان بدون نار. تحتوي أفلام الحركة المبتذلة في هوليوود حول الحروب بين البشر وحضارة الروبوتات على ذرة الحقيقة المريرة تحت قشر المشاهدة التجارية.

عندما يتم بناء برنامج غرائز قابل للتحويل في الروبوتات، وسيتم بناء إشباع هذه الغرائز كحاجة أساسية وغير مشروطة، وسيصل هذا إلى مستوى التكاثر الذاتي - عندها، يا شباب، توقفوا عن محاربة التدخين والكحول، لأنه سيكون الوقت المناسب للشرب والتدخين أمام هناء لنا جميعًا.

إيفجيني كاسبيرسكي,

الرئيس التنفيذي لشركة كاسبرسكي لاب

قصة العصافير غير المكتملة

في أحد الأيام، في خضم التعشيش، جلست العصافير، التي سئمت من العمل الشاق لعدة أيام، لتستريح عند غروب الشمس وتتحدث عن هذا وذاك.

"نحن صغار جدًا وضعفاء للغاية." تخيل كم ستكون الحياة أسهل لو كان لدينا بومة كمساعد لنا! - زقزق عصفور حالمًا. - يمكنها بناء أعشاش لنا...