...که در اندیشۀ او هستی

1

کیت هاریمن که مدت دوازده سال بود که به سمت مدیریت تحقیقات شرکت روبات­ها و مردان مکانیکی ایالات متحده اشتغال داشت، به این نتیجه رسیده بود که مطمئن نیست که کاری که انجام می­دهد کاملاً درست باشد. نوک زبانش را به لبهای کلفت اما رنگ پریده­اش کشید و به نظرش رسید که تصویر هولوگرافیک سوزان کالوین کبیر که بدون لبخند از آن بالا به او خیره شده، هیچوقت اینقدر خشن نبوده است.

در حالت عادی او نگاهش را از تصویر بزرگترین روبات شناس تاریخ برمی­گرفت، برای اینکه او را عصبی می­کرد (او سعی کرد به تصویر به عنوان یک شیء بی­روح فکر کند، اما چندان موفق نبود). اما این بار جرأت نکرد و نگاه خیره و مرگبار او به صورتش نفوذ می­کرد.

گامی سهمگین و خوار کننده بود که او باید برمی­داشت. در مقابلش جورج ده قرار داشت که آرام ایستاده بود و نه تحت تأثیر ناآرامی آشکار هاریمن قرار گرفته بود و نه تصویر قدیسۀ روبات شناسان که در فرورفتگی دیوار می­درخشید، روی آن اثر می­گذاشت.

هاریمن گفت: "ما تا به حال فرصت این رو نداشتیم که واقهاً در این باره صحبت کنیم، جورج. تو مدت­ها پیش ما نبودی و من هم فرصت مناسبی نداشتم که تنها باهات حرف بزنم. ولی حالا می­خوام موضوع رو با یه مقدار جزئیات شرح بدم".

جورج گفت: "من هم واقعاً مایلم که این کار رو انجام بدم. در مدت اقامتم در شرکت روبات­ها به این نتیجه رسیدم که باید کاری در مورد سه قانون انجام داد".

-: "بله. البته تو که سه قانون رو می­دونی".

-: "بله، می­دونم".

-: "من هم مطمئنم که می­دونی. ولی بیا یه کم عمیقتر شخم بزنیم و مشکل رو به صورت پایه­ای بررسی کنیم. اگه بتونم این طور بگم، در طی دو قرن موفقیت قابل توجه، شرکت روبات­های ایالات متحده هرگر نخواسته که انسان­ها رو به پذیرش روبات­ها ترغیب کنه. ما از روبات­ها برای کار ضروری در مناطقی استفاده می­کنیم که انسان­ها نمی­تونن کار کنن، یا در جاهایی که برای انسان­ها به میزان غیر قابل قبولی خطرناکه. روبات­ها بیشتر در فضا کار می­کنن و این موضوع کارهایی که ما قادر به انجامش هستیم رو محدود می­کنه".

جورج ده گفت: "مطمئناً این موضوع محدودیت گسترده­ای رو ایجاد می­کنه، محدودیتی که شرکت روبات­ها می­تونه از طریق اون به شکوفایی برسه".

-: "نه، به دو دلیل. اول اینکه چنین محدودیتی به طرز قیر قابل اجتنابی دست و پای ما رو بسته. به عنوان مثال وقتی که مهاجرنشین ماه پیشرفته­تر شد، خواستار کاهش تعداد روبات­ها شد و ما انتظار این رو داشتیم، و در طی چند سال بعد، استفاده از روبات­ها در روی ماه ممنوع شد. این مسأله در تک تک مهاجرنشین­های انسان­ها تکرار شد. دوم اینکه بدون وجود روبات­ها روی زمین، شکوفایی تحقق پیدا نمی­کنه. ما توی شرکت روبات­ها به شدت معتقدیم که انسان­ها به روبات­ها نیاز دارن و اگه این روند بخواد پابرجا بمونه، باید یاد بگیرن که چطور با همنوعان مکانیکی­شون زندگی کنن".

-: "اونها این کار رو نمی­کنن؟ آقای هاریمن، شما روی میز کارتون یه رایانه دارین، که تا اونجایی که من فهمیدم، به سازمان مولتی­وک ارتباط داره. یه رایانه، یه نوع روبات بی­حرکته. یه مغز روباتی که به بدن روباتی متصل نیست..."

-: "درسته، اما این هم محدودیت داره. رایانه­هایی که انسان­ها ازش استفاده می­کنن، به منظور جلوگیری از پیدا شدن هوش شبه انسانی، مدام تخصصی­تر میشن. یه قرن پیش ما در زمینۀ ساخت هوش مصنوعی به نامحدود­ترین شکل از طریق استفاده از رایانه­های بزرگی که بهشون «ماشین» می­گفتیم، خیلی خوب عمل کردیم. اون ماشین­ها فعالیتشون رو به خواست خودشون محدود کردن. به محض اینکه اونها مشکلات محیط زیستی رو که جامعۀ بشریت رو تهدید میکرد، حل کردن، کار خودشون رو متوقف کردن. دلیلشون این بود که ادامه پیدا کردن وجودشون برای انسان­ها حکم چوب­های زیر بغل رو داره و به محض اینکه به این نتیجه رسیدن که چنین چیزی می­تونه به بشریت آسیب برسونه، خودشون رو با قانون اول محکوم کردن".

-: "و این کار اونها درست نبود"؟

-: "به عقیدۀ من، نه. اونها با این کارشون عقدۀ فرانکنشتاین بشریت رو تقویت کردن؛ که بر اساس اون هر انسان مصنوعی­ای که خلق میشه، در مقابل خالقش قرار می­گیره. انسان­ها از این می­ترسن که روبات­ها جای اونها رو بگیرن".

-: "تو خودت از این موضوع نمی­ترسی"؟

-: "من این موضوع رو بهتر درک می­کنم. تا زمانی که قوانین سه گانۀ روباتیک وجود داره، اونها نمی­تونن جای ما رو بگیرن. اونها می­تونن مثل یک همکار به بشریت خدمت کنن، اونها می­تونن در تلاش بزرگ برای درک و هدایت قوانین طبیعت مشارکت داشته باشن و همراه با هم می­تونن کار بیشتری انجام بدن از چیزی که بشریت می­تونه به تنهایی انجام بده. اما همیشه در چنین راهی، روبات­ها در خدمت انسان­ها خواهند بود".

-: "ولی اگه در طی دو قرن، قوانین سه گانه خودشون روبه عنوان چیزی که روبات­ها رو در بند نگه می­داره نشون دادن، علت این عدم اعتماد انسان­ها به روبات­ها چیه"؟

-: "خوب..." هاریمن سرش را به شدت خاراند و موهایش سیخ سیخ شدند و ادامه داد: "البته بیشترش خرافاته. متأسفانه یه مقدار پیچیدگی هم در مورد آشوبگران ضد روبات وجود داره".

-: "به قوانین سه گانه مربوط میشه"؟

-: "بله، مخصوصاً قانون دوم. قانون سوم مسأله­ای نیست. این یه چیز جهانیه. روبات­ها همیشه باید خودشون رو برای انسان­ها قربانی کنن؛ برای هر انسانی".

جورج ده گفت: "البته که این طوره".

-: "قانون اول شاید از همه کمتر راضی کننده باشه، چرا که همیشه امکان تصور این موقعیت وجود داره که یه روبات باید یا واکنش الف رو انجام بده یا واکنش ب رو، و هر دو اونها ویژگی­های منحصر به فردی دارن، و هر کدوم ممکنه باعث آسیب رسیدن به انسان بشه. یه روبات باید سریع تصمیم بگیره که کدوم واکنش آسیب کمتری ایجاد می­کنه. عملکرد شیارهای مغز یک روبات به گونه­ایه که باعث میشه این، تصمیم راحتی نباشه. اگه نتیجۀ واکنش الف منجر به آسیب رسیدن به یه هنرمند بااستعداد جوون و نتیجۀ عکس­العمل ب، آسیب برابری به پنج انسان پیر بشه که هیچ ارزش خاصی ندارن، کدوم واکنش باید برگزیده بشه"؟

جورج ده گفت: "واکنش الف. آسیب به یک نفر کمتر از آسیب به پنج نفره".

-: "به همین دلیله که روبات­ها همیشه طوری طراحی شدن که بتونن تصمیم بگیرن. انتظار اینکه روبات­ها بتونن بر اساس نکات مثبتی مثل استعداد، هوش و فایدۀ عمومی برای جامعه قضاوت کنن، همیشه غیر عملی به نظر می­رسیده. چنین موضوع­هایی می­تونه تصمیم گیری رو اونقدر به تأخیر بندازه که مؤثر بودن روبات­ها رو بی­فایده می­کنه. بنابراین، ما بر اساس تعداد تصمیم گیری می­کنیم. خوشبختانه می­تونیم انتظار داشته باشیم که تعداد بحران­هایی که در اون روبات­ها مجبور به چنین انتخاب­هایی میشن، کمه... اما بعد، مسألۀ قانون دوم رو برامون پیش میاره".

-: "قانون فرمانبرداری".

-: "بله. نیاز به فرمانبرداری یه مسألۀ همیشگیه. یه روبات ممکنه بیست سال وجود داشته باشه، بدون اینکه نیاز به واکنش فوری برای جلوگیری از آسیب رسیدن به یه انسان داشته باشه، یا اینکه با خطر نابودی خودش روبرو بشه، با این وجود، در تمام این مدت مجبوره که از دستورات اطاعت کنه... اما دستورات چه کسی"؟

-: "همون انسان­ها".

-: "هر انسانی؟ تو چطور می­تونی یه انسان رو تشخیص بدی که از دستورش اطاعت بکنی یا نکنی؟ انسان چیست که تو در اندیشۀ او هستی، جورج"؟

جورج تردید کرد.

هاریمن با عجله گفت: "این یه نقل قول از کتاب مقدسه. چیز مهمی نیست. منظورم اینه که آیا یه روبات باید از دستورات یه بچه، یا یه آدم ابله، یا یه جنایتکار، یا یه انسان کم خرد که تخصص کافی نداره و به همین دلیل از نتایج ناخواستۀ دستوراتش غافله هم اطاعت کنه؟ و یا اگه دو انسان به یه روبات دستوری بدن که در تضاد با همدیگه باشه، اون روبات از دستور کدومشون اطاعت می­کنه"؟

جورج ده گفت: "آیا در طول دویست سال، چنین مشکلاتی به وجود نیومدن که حل شده باشن"؟

هاریمن درحالی که دستش را به شدت تکان می­داد گفت: "نه، چون این حقیقت دست و پای ما رو بسته که روبات­ها در محیط­های خیلی مخصوص مثل فضا، به کار گرفته شدن، جایی که انسان­هایی که باهاشون برخورد دارن در اون زمینه کاملاً تخصص دارن. اونجا هیچ بچه، یا آدم ابله، یا جنایتکار، یا آدمی که به معنای دقیق، بی­سواد و غیر متخصص باشه، وجود نداره. حتی در چنین شرایطی هم مواقعی وجود داره که به دلیل دستورات احمقانه یا دستوراتی که به خوبی دربارشون فکر نشده، آسیب­هایی به وجود میاد. در محیط­های مخصوص و محدود ممکنه که چنین آسیب­هایی به وجود بیاد. اما روبات­ها روی زمین مجبور به قضاوت هستن. پس اونهایی که ضد روبات­ها هستن هم باقی می­مونن و لعنت بهشون- حق با اونهاست".

-: "پس شما باید ظرفیت قضاوت رو به مغزهای پوزیترونیک اضافه کنید".

-: "دقیقاً! ما شروع به باز تولید روبات­های JG کردیم که می­تونن هر انسانی رو بر اساس جنسیت، سن و سال، موقعیت اجتماعی و حرفه­ای، هوش، درایت، مسئولیت اجتماعی و غیره سبک و سنگین کنن".

-: "چنین چیزی چطور می­تونه روی سه قانون تأثیر بذاره"؟

-: "روی سه قانون هیچ تأثیری نداره. حتی باارزش­ترین روبات هم باید خودش رو برای کم ارزش­ترین انسان فدا کنه. این موضوعیه که نمیشه تمهیدی دربارش اندیشید. قانون اول زمانی مؤثره که تمام واکنش­های جایگزین باعث آسیب رسیدن بشن. کیفیت انسان بودن شامل کمیت­هاییه که باید تعریف بشه و زمانی برای چنین قضاوتی و پایه و اساس اون تهیه بشه، که اغلب این طور نیست. وقتی که قابلیت فرمانبرداری، شامل قضاوت هم بشه، قانون دوم باید عمیقاً تعدیل بشه. در این صورت یه روبات خیلی کندتر از دستورات اطاعت می­کنه، مگر در جایی که شامل قانون اول هم بشه، اما با این وجود اطاعت کردن خیلی عقلانی­تره".

-: "ولی قضاوت­هایی که لازمه خیلی پیچیده هستن".

-: "خیلی. نیاز به چنین قضاوتی واکنش­های دو مدل اولیۀ ما رو اون قدر کند کرد که نقطۀ فلج ذهنی رسیدن. ما مواد سازندۀ مدل­های بعدی­مون رو به قیمت معرفی شیار­های جدیدی در مغز پوزیترونیک ارتقاء دادیم که باعث شد مغز روبات­ها خیلی بزرگ و سنگین بشه. به هر حال در دو مدل آخر، فکر می­کنم اون چیزی که می­خواستیم رو بدست آوردیم. روبات­ها نیازی به قضاوت فوری در مورد ارزش انسان­ها یا دستوراتی که میده ندارن. اون روبان مثل همۀ روبات­های معمولی دیگه اول با اطاعت کردن از دستور همۀ انسان­ها شروع می­کنه و بعد کم کم یاد می­گیره. روبات رشد می­کنه، یاد می­گیره و مهارت کسب می­کنه. درست مثل یه بچه که اول باید تحت نظارت دائمی باشه. همچنان که رشد می­کنه، می­تونه بیشتر و بیشتر اجازه پیدا کنه که بدون اینکه تحت نظارت باشه، وارد جامعۀ زمین بشه. در نهایت می­تونه عضو کاملی از جامعه بشه".

-: "مطمئناً این می­تونه پاسخی باشه برای اونهایی که مخالف روبات­ها هستن".

هاریمن با خشم گفت: "نه، اونها اعتراضات دیگه­ای رو مطرح می­کنن. اونها این قضاوت رو قبول نمی­کنن. اونها میگن که یه روبات حق این رو نداره که به این شخص یا اون شخص برچسب پست بودن بزنه. با پذیرفتن دستورات فرد الف که به فرد ب ارجحیت داره، به فرد ب این برچسب می­خوره که ارزش کمتری از فرد الف داره و به حقوق انسانیش اهانت میشه".

-: "پاسخ این مسأله چیه"؟

-: "پاسخی وجود نداره. من دارم تسلیم میشم".

-: "متوجه هستم".

-: "تا زمانی که فقط خودم مطرح باشم، مجبورم به تو رو بیارم، جورج".

-: "به من"؟ صدای جورج ده همچنان یکنواخت ماند. در صدایش نوعی غافلگیری ملایم وجود داشت، اما روی هاریمن چندان تأثیری نگذاشت. جورج ادامه داد: "چرا به من"؟

هاریمن با حالتی عصبی گفت: "برای اینکه تو انسان نیستی. قبلاً بهت گفته بودم که من می­خوام روبات­ها همکار انسان باشن. ازت می­خوام که تو هم همکار من باشی".

جورج ده با حالت انسانی بی­مانندی دستانش را در حالی که کف آنها رو به بالا بود، گشود و گفت: "من چکار می­تونم انجام بدم"؟

-: "شاید به نظرت می­رسه که تو کاری نمی­تونی انجام بدی، جورج. تو مدت زیادی نیست که به وجود اومدی و هنوز یه بچه به حساب میای. طوری طراحی شدی که با اطلاعات دست اول پر نشدی. به خاطر همین بود که من باید اول شرایط رو با چنین جزئیاتی برات توضیح می­دادم، برای اینکه جا برای رشد بیشتری داشته باشی. تو از نظر ذهنی رشد می­کنی و می­تونی به مشکل از زاویۀ دید غیر انسانی نزدیک بشی. در جایی که من هیچ راه حلی نمی­بینم، تو، از زاویۀ دید خودت ممکنه چنین راه حلی رو ببینی".

جورج ده گفت: "مغز من به دست انسان­ها ساخته شده. چطور ممکنه که غیر انسانی باشه"؟

-: "تو آخرین روبات از مدل­های JG هستی، جورج. مغز تو پیچیده­ترین چیزیه که ما تا به حال طراحی کردیم. از بعضی جهات، خیلی ظریف­تر و پیچیده­تر از اون ماشین­های قدیمی و غول پیکره. انتهای باز داره و بر اساس اصول مغز انسان ساخته شده و ممکنه... نه... حتماً در همۀ جهات رشد می­کنه. با باقی موندن در قید و بندهای ناگسستنی سه قانون، فکر کردنت می­تونه کاملاً غیر انسانی بمونه".

-: "آیا من به اندازۀ کافی در مورد انسان­ها می­دونم که بتونم به روشی عقلانی به مشکل نزدیک بشم؟ در بارۀ تاریخشون، یا در مورد روانشناسی­شون"؟

-: "البته که نه، ولی می­تونی با حداکثر سرعتی که می­تونی، یاد بگیری".

-: "به من کمکی خواهد شد، آقای هاریمن"؟

-: "نه، این یه مسأله­س که کاملاً بین خودمونه. هیچ کس راجع به این مووع چیزی نمی­دونه و تو هم نباید در مورد این پروژه چیزی به هیچ انسانی بگی، چه در شرکت روبات­ها و چه در جاهای دیگه".

جورج ده گفت: "آقای هاریمن، آیا ما داریم کار اشتباهی انجام میدیم که شما می­خواین این موضوع رو سری نگه دارین"؟

-: "نه، اما راه حلی روباتی پذیرفته نخواهد شد. به خاطر اینکه یه روبات این راه حل رو ارائه داده. تو هر راه حل پیشنهادی که پیدا می­کنی رو به من ارجاع میدی، و اگه به نظر من ارزشمند اومد، من همون رو ارائه می­کنم. هیچ کس هم نمی­فهمه که اون کار تو بوده".

جورج ده به آرامی گفت: "چیزهایی که شما تا به حال گفتین اون قدر موضوع رو روشن کرد که به نظر می­رسه شیوۀ صحیح همینه... من از کی می­تونم شروع کنم"؟

-: "از همین حالا. من هماهنگ می­کنم که همۀ فیلم­های لازم برای اسکن کردن در اختیارت قرار بگیره".

 

1 الف

 

هاریمن در تنهایی نشسته بود.

در روشنایی مصنوعی داخل دفترش هیچ نشانه­ای از این نبود که در بیرون هوا تاریک شده است. اصلاً حس نمی­کرد که سه ساعت از زمانی که جورج ده را به کابینش برگردانده و او را با نخستین فیلم­های مرجع رها کرده، گذشته است.

حالا او فقط با روح سوزان کالوین تنها بود، روبات شناس نابغه­ای که عملاً یک تنه، روبات­های پوزیترونیک را از اسباب بازی­های غول پیکر به ابزارهایی ظریف و همه کاره تبدیل کرده بود، آنقدر ظریف و همه کاره که انسان جرأت نمی­کرد با وجود همۀ بدخواهی و ترسش، از استفاده از آنها دست بکشد.

از زمانی که او مرده بود، بیش از یک قرن می­گذشت. مشکل عقدۀ فرانکنشتاین حتی زمان او هم وجود داشت، و او هرگز آن را حل نکرده بود. او اصلاً تلاشی برای حل آن نکرده بود، برای اینکه نیازی به حل آن وجود نداشت. در زمان او، روباتیک به دلیل نیاز به اکتشافات فضایی، گسترش یافته بود.

این همان موفقیت روبات­ها بود که نیاز انسان­ها به آنها را در زمان سوزان کالوین کاسته بود و آن را برای او باقی گذاشته بود، در این زمان­های اخیر...

اما آیا سوزان کالوین برای کمک به روبات­ها رو می­کرد؟ حتماً این کار را می­کرد.

او مدت­ها در طول شب همانجا نشست.

ادامه دارد...