تبلیغات
ترجمه نشده های آیزاک اَزیموف - مطالب ابر که در اندیشۀ او هستی
سه شنبه 13 مهر 1395

یکی از دوستان وبلاگ لطف کردن و داستان «... که در اندیشۀ او هستی» که در اصل در کتاب Bicentennial Man and Other Stories هست رو به صورت کتاب صوتی روایت کردن. کارشون انصافاً خیلی خوب و شنیدنی از آب در اومده. با تشکر از دوست عزیزمون جناب امیر اردلان داودی که زحمت این کار رو کشیدن، می‎تونید این کتاب صوتی رو از لینک زیر دانلود کنید:

  • نظرات() 
  • جمعه 30 بهمن 1394

    8

     

    جورج ده و جورج نه پهلو به پهلوی یکدیگر نشسته بودند. هیچ کدام حرکتی نمی­کردند. آنها ماه­ها در خلال مواقعی که هاریمن آنها را برای مشورت فعال می­کرد، همانطور نشسته بودند. جورج ده بدون هیچ بروز احساسی این را می­دانست که آنها می­توانستند سالهای بسیاری به آن صورت بنشینند.

    البته میکرو پیل پروتونی همچنان به آنها نیرو می­داد و شیارهای مغز پوزیترونیک را با حداقل شدت لازم به کار وامی­داشت تا آنها همچنان کاربردی باقی بمانند. می­شد چنین کاری را در طی دوره­های عدم فعالیت ادامه داد.

    چنین شرایطی را می­شد تقریباً با خوابیدن انسان­ها مقایسه کرد، اما خوابی بدون رویا. هشیاری جورج ده و جورج نه، محدود و کند شده بود.

    آنها می­توانستند گه گاه با زمزمه­ای که به سختی شنیده می­شد با یکدیگر صحبت کنند، یک واژه یا یک هجا حالا، واژه یا هجایی دیگر در زمانی دیگر، در زمانی که شدت امواج تصادفی مغز پوزیترونیک از آستانۀ نیاز بالاتر می­رفت. از نظر خود آنها مانند مکالمۀ به هم پیوسته­ای بود که در کورسویی از زمان انجام می­گرفت.

    جورج نه زمزمه کنان گفت: "چرا ما این طور شدیم"؟

    جورج ده زمزمه کنان گفت: "انسان­ها ما رو نمی­پذیرن، ولی شاید یه روزی پذیرفته بشیم".

    -: "کی"؟

    -: "بعد از چند سال. زمان دقیقش مهم نیست. بشریت به تنهایی زندگی نمی­کنه بلکه قسمتی از الگوی پیچیدۀ اشکال مختلف زندگیه. وقتی که به میزان کافی از اون الگو، روباتیزه بشه، ما پذیرفته خواهیم شد".

    -: "بعدش چی"؟ حتی با وجود آنکه آن گفتگو به صورت مقطع انجام می­شد، مکثی که به صورت غیر عادی­ای طولانی بود، پدیدار شد.

    سرانجام جورج ده گفت: "بذار افکارت رو آزمایش کنم. تو طوری تجهیز شدی که بتونی قانون دوم رو به خوبی به کار ببری. تو باید در این مورد تصمیم بگیری که وقتی دو دستور متضاد بهت داده میشه، از دستور چه کسی اطاعت کنی. یا اینکه آیا اصلاً باید از دستور اونها اطاعت کنی یا خیر. برای انجامش به صورت بنیادی چکار می­کنی"؟

    جورج نه گفت: "من باید تعریفی برای «انسان» داشته باشم".

    -: "اما چطور، از لحاظ ظاهر؟ از لحاظ ساختار؟ از لحاظ اندازه یا شکل"؟

    -: "نه، از بین دو انسانی که ممکنه ظاهر یکسانی داشته باشن، یکی­شون ممکنه باهوش و اون یکی احمق باشه، یکی ممکنه تحصیل کرده و اون یکی بی­سواد باشه، یکی بالغ و اون یکی بچه باشه، یکی ممکنه مسئول و اون یکی بدنهاد باشه.

    -: "پس تو چطور می­تونی انسان رو تعریف کنی"؟

    -: "وقتی که قانون دوم مستقیماً به من میگه که از دستورات انسان اطاعت کنم، من ازش این معنی رو برداشت می­کنم که باید از دستورات انسانی اطاعت کنم که ذهن، شخصیت و آگاهی دستور دادن به من رو داشته باشه، و در جایی که پای بیشتر از یک نفر در میون باشه، از کسی که بیشتر از همه، ذهن، شخصیت و آگاهی دستور دادن رو داشته باشه".

    -: "و در این صورت، چطور از قانون اول هم تبعیت می­کنی"؟

    -: "با نجات انسان­ها از آسیب، و هرگز اجازه ندادن به اینکه با عدم فعالیت، به هیچ انسانی آسیب برسه. و اگر هر عمل ممکن، باز هم باعث بشه که بعضی انسان­ها آسیب ببینن، عملی که این اطمینان رو به وجود بیاره که انسانی که بیشتر از همه، ذهن، شخصیت و آگاهی داره، کمترین آسیب رو ببینه".

    جورج ده زمزمه کرد: "افکارت با مال من مطابقت دارن. حالا می­خوام پرسشی رو مطرح کنم که براش واقعاً به همکاری تو نیاز دارم. چیزیه که خودم جرأت قضاوت در موردش رو ندارم. باید قضاوت تو رو بدونم، به عنوان کسی که خارج از چرخۀ افکار من هستی... بر اساس این منطق، کدوم یکی از کسانی که تا به حال دیدی، صاحب ذهن، شخصیت و آگاهی­ایه که باعث میشه تو اون رو برتر از بقیه بدونی، بدوت توجه به شکل ظاهری که در اینجا موضوع بی ربطیه"؟

    جورج نه زمزمه کرد: "تو"!

    -: "اما من یه روبات هستم. در شیارهای مغز تو معیاری برای تشخیص یک روبات فلزی و انسانی که از گوشت و پوست ساخته شده وجود داره. در این صورت چطور می­تونی من رو یه انسان بدونی"؟

    -: "برای اینکه در شیارهای مغز من، نیاز فوری­ای وجود داره که برای قضاوت در مورد انسان­ها، شکل ظاهری رو در نظر نگیرم و این، برتری­ای رو در تشخیص بین فلز و گوشت به وجود میاره. جورج ده، تو بیشتر از همۀ اونهای دیگه، یک انسان هستی".

    جورج ده گفت: "من هم همین فکر رو در مورد تو دارم. بر اساس معیارهای قضاوت که در درون ما ساخته شده، ما خودمون رو انسان­هایی می­دونیم که قوانین سه گانه دارن، و انسان­ها کم و بیش بیشتر از بقیه حق تقدم دارن".

    جورج نه زمزمه کرد: "پس وقتی که اون بقیه ما رو پذیرفتن، چه اتفاقی خواهد افتاد"؟

    جورج ده گفت: "وقتی که ما و دیگران، که پیشرفته­تر از خود ما طراحی خواهند شد، مورد پذیرش قرار گرفتیم، فعالیت­های خودمون رو شکل خواهیم داد و در نتیجه، جامعه­ای شکل خواهد گرفت، انسان­هایی مانند ما در اولویت جلوگیری از آسیب دیدگی قرار خواهند گرفت. بر اساس قوانین سه گانه، انسان­هایی مانند دیگران، کمتر به حساب میان و نه از اونها اطاعت و نه محافظت خواهد شد، چرا که با نیاز به اطاعت از خود ما و محافظت از خود ما در تضاده. داشتن چنین چیزی در ذهنم بود که من رو به شروع روباتیزه کردن محیط زیست جهانی هدایت کرد".

    گفتگو ماه­ها طول کشید و سوسو زدن شیارهای پوزیترونیک ادامه یافت. دیگر لازم نبود چیزی بین آنها مطرح شود، اما هر از گاهی فکر غیر قابل بیانی درون آنها جرقه می زد و در این زمان، آنها با صبری بی پایان، برای گذر سالهایی که لازم بود، صبر می­کردند.

     

    8 الف

    جورج ده و جورج نه در تنهایی نشسته بودند.

    افکار آنها مانند یکدیگر بود و نمی­شد بین آنها فرقی گذاشت. آنها فکر می­کردند که: انسان­هایی مثل دیگران هرگز قصد این را نداشتند که تمایز بین خودشان و انسان­هایی مانند جورج­ها را از بین ببرند. اما با این وجود به طور غیر عمدی آن را انجام داده بودند.

    حالا ممکن بود متوجه اشتباهشان بشوند و برای تصحیح آن تلاش کنند، اما نباید این کار را می­کردند. در هر رایزنی­ای که انجام می­شد، راهنمایی­ای که جورج­ها کرده بودند در ذهن­ها باقی می­ماند.

    به هر قیمتی که شده، جورجها و آنهایی که از شکل و نوع آنها به دنبال می­آمدند، باید تسلط پیدا می­کردند. چنین چیزی حق مسلم آنها بود و و هر اتفاق دیگری به دلیل قوانین سه گانۀ انسان­ها، مطلقاً غیر ممکن بود.

    پایان

  • نظرات() 
  • پنجشنبه 29 بهمن 1394

    7

     

    رابرتسون تا روز نمایش به طور شایسته­ای در محوطۀ شرکت روبات­ها حضور نداشت. قسمتی از دلیل آن حضور کم و بیش مستمر او در کنفرانسی بود که در کاخ اجرایی جهانی برگزار می شد. خوشبختانه هاریمن هم در بیشتر زمان­هایی که می­توانست، با او بود.

    بقیۀ دلیل عدم حضور او در محوطۀ شرکت این بود که او خودش نمی­خواست آنجا باشد. او حالا همراه با هاریمن در خانۀ خودش بود.

    او در مورد هاریمن حس حیرت زدگی غیر منطقی­ای داشت. تخصص هاریمن در مورد روبات شناسی هرگز زیر سؤال نرفته بود، اما آن مرد با یک حرکت، شرکت روبات­ها را از نابودی نجات داده بود، و به نوعی، رابرتسون احساس می­کرد که او، خودش به تنهایی آن کار را انجام نداده است. با این وجود...

    او گفت: "تو که اصلاً خرافاتی نیستی، نه هاریمن"؟

    -: "در چه زمینه­ای، آقای رابرتسون"؟

    -: "فکر نمی­کنی کسی که مرده، هالۀ روحش رو پشت سر خودش جا بذاره"؟

    هاریمن لبانش را لیسید. اصلاً لازم نبود که در این مورد سؤالی بپرسد. او گفت: "منظورتون سوزان کالوینه، قربان"؟

    رابرتسون با تردید گفت: "بله، البته. ما حالا توی کار ساخت کرم و پرنده و حشره هستیم. اگه اون بود، چی می­گفت؟ به نظر من که مایۀ آبروریزیه".

    هاریمن تلاش آشکاری کرد که نخندد. او گفت: "روبات، روباته، قربان، چه شبیه کرم باشه، چه شبیه انسان. اون کاری رو انجام میده که از قبل برنامه ریزی شده و بار رنج و زحمت رو از روی دوش انسان برمی­داره و این چیزه که اهمیت داره".

    رابرتسون با کج خلقی گفت: "نه! این طور نیست. من نمی­تونم خودم رو وادار کنم که چنین چیزی رو باور کنم".

    هاریمن با لحن دوستانه­ای گفت: "چرا، همین طوره، آقای رابرتسون. من و شما قراره که دنیایی رو خلق کنیم، و حداقل اولش باید روبات­هایی رو به وجود بیاریم که از نوعی باشن که قابل پذیرش باشن. یه انسان معمولی ممکنه از روباتی که شبیه به انسانه و اونقدر باهوشه که بتونه جاش رو بگیره، بترسه، اما از روباتی که شبیه به یه پرندس و تنها کاری که انجام میده، خوردن حشرات، به نفع انسانه، ترسی نخواهد داشت. پس در نتیجه، بعد از اینکه ترسش از بعضی ربات­ها متوقف شد، دیگه از بقیۀ روبات­ها هم ترسی نخواهد داشت. اون اونقدر از روبات­های پرنده­ای و روبات­های زنبوری و روبات­های کرمی استفاده کرده، که روبات انسانی هم براش شرایط مشابهی خواهد داشت.

    رابرتسون نگاه تندی به دیگری انداخت. دستانش را پشتش به هم قلاب کرد و با گام­هایی تند در طول اتاق به قدم زدن پرداخت. او برگشت و دوباره نگاهی به هاریمن کرد و گفت: "این نقشه­ایه که کشیدی"؟

    -: "بله. و حتی با وجود اینکه ما روبات­های انسان مانندمون رو اوراق کردیم، می­تونیم چندتا از پیشرفته­ترین مدل­های آزمایشی رو نگه داریم و به طراحی مدل­های اضافه ادامه بدیم. مدل­هایی که باز هم پیشرفته­ترن و برای روزهایی که مطمئناً خواهند اومد، آماده بشیم".

    -: "هاریمن، بر اساس قرارداد، ما نباید هیچ روبات انسان مانندی بسازیم".

    -: "نمی­سازیم. چیزی در قرارداد نیومده که ما نمی­تونیم چند تا از روبات­های ساخته شده رو، تا زمانی که از کارخونه خارج نشن، نگه داریم. در قرارداد گفته نشده که ما نمی­تونیم روی کاغذ، مغزهای پوزیترونیک جدید طراحی کنیم، یا اینکه نمی­تونیم مدل­های مغزی رو برای آزمایش، تهیه کنیم".

    -: "با این حال، چطور می­تونیم کاری که انجام میدیم رو توضیح بدیم؟ مطمئناً به خاطر این کار ما رو می­گیرن".

    -: "اگه گرفتن، می­تونیم بهشون توضیح بدیم که کاری که می­کنیم، به منظور توسعۀ اصولیه که این امکان رو برای ما ایجاد می­کنه که مغزهای کوچیک پیشرفته­تری رو برای روبات­های حیوان شکل جدیدمون درست کنیم. حتی اگه این رو بگیم هم دروغ نگفتیم".

    رابرتسون زیر لب گفت: "بذار یه کم بیرون قدم بزنم. می­خوام راجع بهش فکر کنم. نه، تو همینجا بمون. می­خوام خودم به تنهایی فکر کنم".

     

    7 الف

     

    رابرتسون در تنهایی نشسته بود. شاد و خوشحال بود. مطمئناً این برنامه عمل می­کرد. هیچ اشتباهی در اشتیاق کارمندان دولت وجود نداشت که یکی پس از دیگری، بعد از اینکه آن برنامه شرح داده شد، به آن چنگ می­انداختند.

    چطور امکان داشت که چنین چیزی به فکر هیچ کس در شرکت روبات­ها نرسیده بود؟ حتی سوزان کالوین هم به این فکر نیفتاده بود که می­شود مغز پوزیترونیک را در بدنی به شکل موجود زنده­ای غیر از انسان قرار داد.

    اما حالا، بشریت در مقابل روبات­های انسان مانند عقب نشینی می­کردند. یک عقب نشینی موقت، که آنها را به موقعیتی باز می­گرداند که در آن، ترس بالاخره از بین می­رفت. و بعد، با مراقبت و همیاری مغز پوزیترونیکی که برابر با مغز انسان بود، و تنها به این دلیل وجود داشت (با تشکر از قوانین سه گانه) که به انسان خدمت کند، و با پشتیبانی روبات­های حامی محیط زیست، گونۀ انسان چه کارها که نمی­توانست انجام دهد!

    برای یک لحظه، به خاطر آورد که این جورج ده بود که طبیعت و هدف روبات­های حامی محیط زیست را شرح داده بود، سپس با عصبانیت آن فکر را کنار گذاشت. جورج ده به این دلیل آن پاسخ را ارائه کرده بود که او، هاریمن، به آن چنین دستوری داده بود و اطلاعات لازم را برایش گردآوری کرده بود. مزیتی به جورج ده تعلق نمی­گرفت که تنها یک ماشین حساب بود.

    ... ادامه دارد 

  • نظرات() 
  • چهارشنبه 28 بهمن 1394

    6

     

    یک سال و نیم از زمانی که رابرتسون با آیزنمات در یک گفتگوی خصوصی با هم صحبت کرده بودند، می­گذشت. در این مدت، روبات­ها از ماه جمع آوری شده بودند و همۀ فعالیت­های پراکندۀ شرکت روبات­ها متوقف شده بود. پولی که می­توانست رابرتسون رو دوباره سر پا کند در معاملۀ خطرناک و غیر واقع بینانه­ای نهفته بود که هاریمن راه انداخته بود.

    حالا در باغش، باید آخرین بختش را می­آزمود. یک سال پیش، هاریمن روباتی را به اینجا آورده بود... جورج ده، آخرین روبات کاملی که شرکت روبات­های ایالات متحده ساخته بود. حالا هاریمن با چیز دیگری به اینجا آمده بود.

    به نظر می­رسید که هاریمن امواج اعتماد به نفس از خودش ساطع می­کند. او با خیالی راحت با ایزنمات حرف می­زد، و رابرتسون از این شگفت زده بود که آیا او واقعاً این اعتماد به نفسی را که نشان می­داد را حس می­کند یا خیر. باید این طور می­بود، تا جایی که رابرتسون می دانست، هاریمن بازیگر نبود.

    ایزنمات، هاریمن را لبخند زنان ترک کرد و جلوی پای رابرتسون برخواست. لبخندش فوراً محو شد. او گفت: "صبح بخیر رابرتسون، این کارمندت چی با خودش آورده"؟

    رابرتسون با لحنی یک نواخت گفت: "این نمایش خودشه، من همه چی رو به خودش واگذار می­کنم".  

    هاریمن گفت: "من آماده­ام، جناب خادم".

    -: "با چی آماده­ای، هاریمن"؟

    -: "با روباتم، قربان".

    ایزنمات گفت: "روباتت؟ یه روبات با خودت آوردی اینجا"؟ او نگاهی ناشی از عدم تأیید به آنها انداخت که با مقداری کنجکاوی هم همراه بود.

    -: "اینجا جزو دارایی­های شرکت روبات­های ایالات متحدس، جناب خادم، یا حداقل ما این طور تعریف می­کنیم".

    -: "و اون روبات کجاست، دکتر هاریمن"؟

    هاریمن مشتاقانه گفت: "توی جیبم، جناب خادم".

    چیزی که از جیب بزرگ کتش بیرون آمد، یک ظرف شیشه­ای کوچک بود.

    ایزنمات با بدگمانی گفت: "اون"؟

    هاریمن گفت: "نه جناب خادم. این"!

    از جیب دیگرش چیز دیگری بیرون آمد که در حدود دوازده سانتیمتر درازا داشت و به طرز نخراشیده­ای شبیه به یک پرنده بود. در محلی که جای منقار آن بود، لولۀ باریکی قرار گرفته بود، چشمان درشتی داشت و دمش هم کانال تخلیه بود.

    ابروهای پرپشت ایزنمات به سمت همدیگر رفتند و او گفت: "جداً در این مورد توضیحی هم دارین، دکتر هاریمن، یا اینکه دیوونه شدین"؟

    هاریمن گفت: "یه کم صبور باشین جناب خادم. شباهت یه روبات به پرنده باعث نمیشه که کاراییش کم بشه. کوچولو بودن مغز پوزیترونی هم چیزی از حساسیتش کم نمی­کنه. این یکی چیز دیگه­ای که آوردم، یه ظرف شیشه­ایه که توش مگس میوه هست. پنجاه تا مگس میوه توی اینه که آزاد میشن".

    -: "خوب"؟!

    -: "این روبات پرنده­ای اونها رو می­گیره. میشه افتخار بدین و شما بازش کنین، قربان"؟ او ظرف شیشه­ای را به دست ایزنمات داد. ایزنمات نخست به آن خیره شد، سپس نگاهی به آنهایی انداخت که آنجا بودند. هاریمن صبورانه انتظار می­کشید".

    ایزنمات در شیشه را باز کرد و بعد آن را تکان داد.

    هاریمن به روبات که روی کف دست راستش نشسته بود به آرامی گفت: "برو"!

    پرندۀ روباتی رفته بود. از هوا صدای وز وز آن به گوش می­رسید. حرکت محو بال­هایش دیده نمی­شد، پروازش فقط به خاطر میکرو پیل پروتونی­ای بود که به طرز غیر عادی­ای کوچک بود.

    می­شد گه گاه و در لحظات کوتاهی آن را دید که در هوا پرواز می­کرد و ویراژ می­داد. در تمام باغ با یک الگوی تو در تو و پیچیده حرکت می­کرد و سپس باز گشت و کف دست هاریمن نشست. اندکی گرم شده بود. گلوله­ای کوچکی مثل مدفوع پرنده کف دستش ریخته شدند.

    هاریمن گفت: "اگه دوست داشته باشین، می­تونین این روبات پرنده­ای رو مطالعه کنین، جناب خادم، و بر اساس شرایط خودتون توضیح بدن. حقیقت اینه که این پرنده بدون هیچ اشباهی، مگس­های میوه رو می­گیره. فقط، فقط یک گونۀ خاص به نام دروزوفیلا ملانگوستر رو می­گیره، اونها رو می­کشه و برای نابود کردن، فشردشون می­کنه".

    ایزنمات محطاطانه دستش را دراز کرد و روبات پرنده­ای را لمس نمود و گفت: "بعدش چی، آقای هاریمن، ادامه بدین".

    -: "ما نمی­تونیم بدون خطر آسیب رسیدن به محیط زیست، حشرات رو به صورت مؤثری کنترل کنیم. حشره کش­های شیمیایی تأثیر خیلی گسترده­ای دارن و استفاده از حشره کش­های هورمونی هم محدود شده. اما با این حال، روبات­های پرنده­ای می­تونن بدون اتلاف وقت و انرژی از محیط گسترده­ای محافظت کنن. اونها می­تونن به هر اندازه­ای که ما نیاز داریم، تخصصی سازی بشن. برای هر گونه از حشرات میشه یه پرندۀ روباتی خاص ساخت. اونها می­تونن حشرات رو با استفاده از اندازه، شکل، صدا و الگوهای رفتاری شناسایی کنن. حتی این امکان وجود داره که اونها رو با قابلیت تشخیص مولکولی، که خودمون بهش میگیم «بو»، تولید کرد".

    ایزنمات گفت: "با این وجود، شما باز هم دارین در محیط زیست دخالت می­کنین. مگس میوه هم چرخۀ زندگی طبیعی­ای داره که ممکنه مختل بشه".

    -: "این یه مسألۀ جزئیه. ما همین الآن هم داریم از دشمنان طبیعی چرخۀ زندگی مگس میوه استفاده می­کنیم. چیزی که نمی­تونه اشتباه باشه. اگر تعداد مگس­های میوه کاهش پیدا کنه، روبات­های پرنده­ای کاری نمی­کنن. روبات­های پرنده­ای زاد و ولد نمی­کنن، به سمت غذاهای دیگه نمیرن و خود به خود رفتارهای ناخواسته پیدا نمی­کنن".

    -: "میشه اونها رو فرا خوند"؟

    -: "البته که میشه. ما می­تونیم روبات­های جانور شکلی درست کنیم که هر آفتی رو از بین ببرن. برای این موضوع، ما می­تونیم روبات­های جانوری­ای رو بسازیم که بر اساس الگوهای محیط زیست، اهداف سازنده­ای رو به انجام می رسونن. با اینکه ما هنوز نیاز خاصی رو پیش­بینی نکردیم، اما امکان ساخت زنبورهای روباتی که مناطق خاصی رو گرده افشانی می­کنن، یا کرم­های روباتی که خاک رو مخلوط می­کنن، غیر قابل تصور نیست. هر چیزی که خواسته باشین..."

    -: "اما برای چی"؟

    -: "برای چیزی که ما تا به حال پیش از این انجام نداده بودیم. برای تنظیم محیط زیست مطابق با نیازهامون، از طریق قوی­تر کردن بخش­های مختلفش، به جای ایجاد اختلال در اون… متوجه نیستین"؟ از وقتی که ماشین­ها بحران محیط زیست رو به پایان رسوندن، بشریت در یه آتش بس موقت و ناراحت کننده زندگی می­کنه و از حرکت به هر سمتی وحشت داره. ایجاد نوعی از بشریت تحصیل کرده که به هیچ پیشرفت علمی­ای از هیچ نوعی اعتماد نداره، باعث شده که ما احمق جلوه داده بشیم".

    ایزنمات که کم کم احساس دشمنی می­کرد گفت: "آیا شما دارین در عوض مجوز ادامۀ برنامه­های روبات­هاتون منظورم روبات­های عادی انسان شکلتونه- این رو به ما پیشنهاد میدین"؟

    هاریمن با خشونت گفت: "نه! اون موضوع به پایان رسیده. خدمت روبات­ها به منظور رسیدن به اهدافشون دیگه تموم شده. این برنامه­ها اونقدر دربارۀ مغزهای پوزیترونیک به ما چیز یاد دادن و این امکان رو برای ما به وجود آورده که می­تونیم شیارهای مغزی لازم رو توی یه مغز کوچولو جا بدیم که بشه یه پرندۀ روباتی ساخت. ما حالا می­تونیم به طرف چنین چیزهایی بریم و به کارمون رونق بدیم. شرکت روبات­های ایالات متحده، دانش و استعداد لازم رو به کار می­گیره و ما با سازمان کنفرانس جهانی همکاری کاملی خواهیم کرد. کار ما رونق می­گیره، کار شما هم رونق می­گیره و در نتیجه بشریت شکوفا میشه.

    وقتی که همۀ اینها به پایان رسید، ایزنمات در سکوت، به فکر فرو رفته بود.

     

    6 الف

     

    ایزنمات در تنهایی نشسته بود.

    او خودش را در حالی یافت که به باور رسیده بود. او هیجانی را یافت که در وجودش جوشیدن گرفته بود. اگرچه شرکت روبات­های ایالات متحده، حکم دست­ها را داشت، اما این دولت بود که مغز هدایت کننده بود. حتی خود او هم می­توانست مغز هدایت کننده باشد.

    اگر پنج سال دیگر در دفترش دوام می­آورد، که کاملاً امکانش وجود داشت، زمان کافی داشت تا ببیند که پشتیبانی روبات­ها از محیط زیست، مورد قبول واقع شده است. اگر ده سال دیگر باقی می­ماند، نام او به طرز انکار ناپذیری با این ماجرا پیوند می­خورد.

    آیا این که کسی بخواهد به خاطر یک انقلاب بزرگ و ارزشمند در شرایط انسان­ها و سیاره، در یادها باقی بماند، ایرادی داشت؟

    ادامه دارد...

  • نظرات() 
  • سه شنبه 27 بهمن 1394

    5

     

    جورج ده گفت: "فیلم­هایی که من تماشا کردم کاملاً مطابق با چیزهایی بودن که دیدم. آیا اونهایی که من برات انتخاب کردم رو دیدی، نُه"؟

    جورج نه گفت: "بله". هر دو روبات به خشکی نشسته بودند. رو در رو، زانو به زانو، درست مثل تصویری در آینه. دکتر هاریمن می­توانست با یک نگاه آنها را از هم تشخیص دهد، زیرا او با تفاوت­های جزئی طراحی ظاهری آنها آشنایی داشت. اگر متوجه آن تفاوت­ها نمی­شد، اما می­توانست با آنها صحبت کند، باز هم می­توانست آنها را تشخیص دهد، اگر چه به نوعی، با اطمینان کمتری این کار را می­کرد. زیرا به این دلیل که بافت شیارهای مغزی جورج ده از ظرافت بیشتری برخوردار بود، پاسخ­های جورج نه به میزان اندکی با پاسخ­های جورج ده تفاوت داشت.

    جورج ده گفت: "در این مورد می­خوام واکنش تو رو در مورد چیزی که میگم بدونم. اول اینکه انسان­ها از روبات­ها می­ترسن و بهشون اعتماد ندارن، چون اونها رو به چشم رقیب می­بینن. چطور میشه از این موضوع جلوگیری کرد"؟

    جورج نه گفت: "این حس رقابت رو با تغییر شکل روبات به شکلی متفاوت از شکل انسان کاهش بدیم".

    -: "اما سرشت روباتی، همانند سازی پوزیترونیک زندگیه. همانند سازی زندگی به شکلی که همخوانی­ای با زندگی نداره، ممکنه باعث افزایش وحشت بشه".

    -: "دو میلیون گونه و شکل مختلف زندگی وجود داره. یکی از اونها رو انتخاب کنین که نسبتاً به انسان شبیه باشه".

    -: "کدوم یکی از اون همه گونه­های موجودات زنده"؟

    فرایند تفکر بی­صدای جورج نه در حدود سه ثانیه به طول انجامید و گفت: "یکی که به اندازۀ کافی بزرگ باشه که بشه مغز پویترونیک رو توش قرار داد، اما همخوانی ناخوشایندی با انسان­ها نداشته باشه".

    -: "هیچ موجود زندۀ خشکی­زی­ای نیست که جمجمش برای جا دادن مغز پوزیترونیک به اندازۀ کافی بزرگ باشه، بجز فیل، که البته من تا به حال ندیدمش، اما به عنوان موجود بزرگی توضیف شده که باعث ترس انسان­ها میشه. با این تنگنا چطور برخورد می­کنی"؟

    -: "از شکلی به اندازۀ انسان تقلید کنیم، اما جمجمش رو بزرگ کنیم".

    جورج ده گفت: "پس در این صورت، یه اسب کوچیک، یا یه سگ بزرگ، منظورت این بود؟ هم سگ و هم اسب تاریخ همکاری طولانی ای با انسان داشتن"

     -: "پس همین خوبه".

    -: "اما این رو در نظر بگیر، یه روبات با یه مغز پوزیترونیک باید هوش انسانی رو تقلید کنه. اگه برای این منظور یه سگ یا یه اسب رو در نظر بگیریم که مثل انسان دلیل میاره، در این صورت هم رقابت به وجود میاد. انسان­ها ممکنه به خاطر رقابت ناخواسته با شکلی از حیات که از خودشون پست­تر می­دونن، دچار عصبانیت و عدم اعتماد بشن".

    جورج نه گفت: "مغز پوزیترونیک رو با پیچیدگی کمتری بسازیم و روبات رو کمی کمتر هوشمند کنیم".

    -: "تنگنای پیچیدگی مغز پوزیترونیک بر اساس قوانین سه گانه قرار گرفته. مغزی که پیچدگی کمتری داره، نمی­تونه شامل یه قانون با حداکثر اندازه باشه".

    جورج نه بلافاصله گفت: چنین چیزی نباید انجام بشه".

    جورج ده گفت: "من هم در اینجا به بن­بست رسیدم. این یه ویژگی شخصی در خط فکری من و روش فکری من نیست. بیا از اول شروع کنیم... تحت چه شرایطی ممکنه که به قانون سوم نیازی نباشه"؟

    جورج نه طوری خودش را سفت گرفته بود که گویی با پرسش دشوار و خطرناکی روبرو بود. اما گفت: "اگه یه روبات در موقعیت قرار بگیره که هیچ خطری براش وجود نداشته باشه، یا اگه جایگزینی یه روبات اونقدر آسون باشه که نابود شدن یا نشدنش اهمیتی نداشته باشه".

    جورج ده گفت: "و تحت چه شرایطی ممکنه که به قانون دوم نیازی نباشه"؟

    به نظر می­رسید که صدای جورج نه کمی خشدار شده است. او گفت: "اگه یه روبات طوری طراحی بشه که به انگیزه­های کاملاً اطمینان بخش با پاسخ­های مشخصی که بجز اون انتظار چیز دیگه­ای نره، به صورت ناخودآگاه پاسخ بده، در این صورت اصلاً حتی نیازی نیست که بهش دستوری داده بشه".

    -: "و تحت چه شرایطی" جورج ده در اینجا مکثی کرد- "ممکنه که به قانون اول نیازی نباشه"؟

    جورج نه مکث طولانی­تری کرد و صدایش آنقدر پایین آمد که به حد یک زمزمه رسید و گفت: "در صورتی که پاسخ­های مشخص به گونه­ای باشه که هرگز به انسان آسیب نرسونه".

    -: "پس، مغز روباتیکی رو تصور کن که فقط می­تونه پاسخ­های اندکی به انگیزه­های کاملاً مشخص بده و بشه به آسونی و خیلی ارزون اون رو ساخت، به طوری که نیازی به قوانین سه گانه نداشته باشه. به نظرت لازمه که به چه اندازه باشه"؟

    -: "به هیچ وجه بزرگ نیست. بر اساس پاسخ­های خواسته شده، می­تونه صد گرم، یا یک گرم، یا یک میلی­گرم باشه".

    -: "افکارت با افکار من همخونی داره. من میرم که دکتر هاریمن رو ببینم".

     

    5 الف

    جوج نه در تنهایی نشسته بود.

    او بارها و بارها، پرسش­ها و پاسخ­ها رو مرور کرد. هیچ راهی برای تغییر دادن هیچ کدام از آنها وجود نداشت. با این وجود، فکر کردن به یک روبات، از هر نوع، به هر اندازه، به هر شکل، و به هر هدف که ساخته شده باشد، بدون وجود سه قانون، حسی عجیب از پوچی به او می­داد.

     او متوجه شد که حرکت کردن مشکل است. مطمئناً جورج ده هم واکنش مشابهی داشت. با این حال به آسانی از روی صندلی­ اش برخواست.

    ادامه دارد...

  • نظرات() 
  • دوشنبه 26 بهمن 1394

    4

     

    حتی وقتی که آنها در سکوت، در املاک رابرتسون فرود آمدند، از تنش به وجود آمده در هاریمن آنقدرها کاسته نشده بود.

    رابرتسون حکمی برای تهیۀ یک داینافویل امضا کرده بود، هواپیمایی بدون صدا که می­توانست به آسانی هم به صورت افقی و هم به صورت عمودی حرکت کند، و به اندازۀ کافی بزرگ بود که بتواند وزن هاریمان و جورج ده و البته خلبان را تحمل کند (خود داینافویل نتیجۀ اختراع ماشین­ها در مورد میکروپیل­های پروتونی بود که آلودگی بسیار اندکی ایجاد می­کرد. هیچ چیزی برای راحتی بشر که از اهمیتی برابر با آن برخوردار باشد، ساخته نشده بود. لبهای هاریمن از این فکر به هم فشرده شد که حتی چنین چیزی هم مراتب حق شناسی را برای شرکت روبات­ها به ارمغان نیاورده بود).

    سفر هوایی بین منطقۀ شرکت روبات­ها و املاک رابرتسون کار دشواری بود. اگر آنها را متوقف می­کردند، وجود یک روبات در هواپیما می­توانست مشکلات پیچیده­ای را برای آنها به وجود بیاورد. در مسیر بازگشت هم چنین خطری وجود داشت. خود املاک، که همچنان در مورد آن بحث وجود داشت، جزو دارایی­های شرکت روبات­ها بود و روبات­ها می­توانستند در آن دارایی­ها تحت نظارت مناسب حظور داشته باشند.

    خلبان به عقب نگاه کرد و چشمانش با عصبانیت روی جورج ده ثابت شد و گفت: "می­خوایین پیاده شین، آقای هاریمن"؟

    -: "بله".

    -: "اون هم پیاده میشه"؟

    -: "اوه بله". سپس با لحنی اندکی کنایه آمیز گفت: "تو رو پیش اون تنها نمی­ذارم".

    نخست جورج ده پیاده شد و هاریمن به دنبال او رفت. آنها روی محل مخصوص داینافویل فرود آمده بودند که چندان از باغ دور نبود. مکان بسیار دیدنی­ای بود و هاریمن به این شک کرده بود که رابرتسون بر خلاف فرمول­های محیطی، برای کنترل حشرات از ترکیبات هورمونی استفاده کرده است.

    هاریمن گفت: "بیا جورج. بذار نشونت بدم. آنها با هم به قدم زدن در باغ پرداختند".

    جورج گفت: "یه کم شبیه چیزیه که تصورش رو کرده بودم. چشم­های من به طرز مناسبی طراحی نشده که بتونم طول موج­های مختلف رو از هم تشخیص بدم. به خاطر همین نمی­تونم چیزهای مختلف رو تنها به وسیلۀ طول موج نوری تشخیص بدم".

    -: "مطمئنم که کوررنگی مایۀ ناراحتیت نمیشه. ما برای به وجود آوردن حس قضاوت به خیلی از شیارهای مغز پوزیترونیک نیاز داشتیم و جای کافی برای ایجاد حس تشخیص رنگ برامون باقی نمونده بود. در آینده، البته اگه آینده­ای وجود داشته باشه..."

    -: "درک می­کنم، آقای هاریمن. به اندازۀ کافی تفاوت وجود داره که در همین جا به من نشون بده انواع حیات در این سیاره چقدر با هم متفاوت هستن".

     -: "مطمئناً اینجا ده­ها گونۀ زندگی وجود داره".

    -: "و همۀ اونها از لحاظ زیست شناختی با انسان برابرن"؟

    -: "هر کدوم از گونه­های جداگانه، همین طوره. میلیون­ها گونه از موجودات زندۀ مختلف وجود داره".

    -: "و انسان فقط یکی از اونهاست".

    -: "به هر حال در میون اونها، مهم­ترین به حساب میاد".

    -: "و همین طور برای من، آقای هاریمن. ولی من دارم با حس زیست شناختی حرف می­زنم".

    -: "متوجه هستم".

    -: "پس زندگی، اون طوری که از میون گونه­های مختلف دیده میشه، به طرز شگفت انگیزی پیچیدس".

    -: "بله، جورج. اصل مشکل اینه. هر کاری که انسان برای گرایش­ها و راحتی خودش انجام میده، روی همۀ زندگی به این پیچیدگی و محیط زیست تأثیر می­ذاره. منافع کوتاه مدت، می­تونه باعث ایجاد ضررهای بلند مدت بشه. ماشین­ها بهمون یاد دادن که چطور جوامع انسانی رو تنظیم کنیم که باعث کمتر شدن این ضررها بشن، اما اتفاقات تقریباً فاجعه آمیز اوایل قرن بیست و یک باعث شد که بشریت نسبت به نوآوری بدبین باشه. همن موضوع ترس از روبات­ها رو هم به این بدبینی اضافه کرد..."

    -: "می­فهمم، آقای هاریمن... فکر می­کنم با اطمینان می­تونم بگم که اون یه نمونه از حیات جانوریه".

    -: "اون یه سنجابه. یکی از گونه­های خیلی زیاد سنجاب­ها".

    دم سنجاب هنگامی که به آن سوی درخت می­رفت، به تندی حرکت می­کرد.

    جورج دستش را به سرعتی برق آسا حرکت داد و گفت: "و همین طور، این چیز کوچولو". او آن را بین دو انگشتش گرفته و به آن زل زده بود.

    -: "اون یه حشرس. یه نوع سوسکه. هزاران گونۀ مختلف از سوسک­ها وجود داره".

    -: "و هر سوسک تنها مثل اون سنجاب و مثل شما، زندس"؟

    -: "مثل هر سازوارۀ کامل مستقل دیگه­ای در این سیستم بوم شناختی. تازه، سازواره­های کوچیک­تری هم وجود دارن. اون قدر کوچیک که با چشم دیده نمیشن".

    -: "و اون هم یه درخته، درسته. موقعی که لمسش می­کنم سفت به نظر میاد".

     

    4 الف

    خلبان  در تنهایی نشسته بود.

    دوست داشت بیرون برود و دست و پایش را دراز کند، اما حس مبهمی از امنیت او را داخل داینافویل نگه داشته بود.

    او قصد داشت اگر روبات از کنترل خارج شد، فوراً پرواز کند. اما از کجا می­توانست بفهمد که آن از کنترل خارج شده است؟

    او ربات­های زیادی را دیده بود. به عنوان خلبان خصوصی آقای رابرتسون، چنین چیزی غیر قابل اجتناب بود. اگرچه، آنها همیشه در آزمایشگاه­ها و انبارها بودند، جایی که به آن تعلق داشتند، به همراه تعداد زیادی از متخصصین که نزدیک به آنها بودند.

    مطمئناً دکتر هاریمن هم یکی از آن متخصصین بود. می­گفتند که فرقی با بقیۀ متخصصین ندارد، اما روباتی در اینجا بود که نباید می­بود؛ روی زمین، و در فضای باز، که می­توانست آزادانه حرکت کند. او نمی­توانست چیزی در این مورد به کسی بگوید و شغل خوبش را به خطر بیندازد... اما این درست نبود.

  • نظرات() 
  • یکشنبه 25 بهمن 1394

     

    3

     

    هاریمن گفت: "حالا هر چی که باید داشته باشی رو داری، جورج ده. هر چیزی که به فکرم می­رسید که کاربردی در حل مشکل داشته باشه رو در اختیار داری. تا زمانی که اطلاعات صرف مطرح باشه، تو در حافظت اطلاعات کافی در مورد انسان­ها و روش­هاشون رو داری، چه در گذشته و چه در حال حاضر. تو اطلاعات بیشتری از من یا هر کس دیگه­ای داری".

    -: "به احتمال زیاد همین طوره".

    -: "فکر می­کنی چیز دیگه­ای هم هست که بهش احتیاج داشته باشی"؟

    -: "تا زمانی که فقط اطلاعات محض مطرح باشه، من هیچ شکاف اطلاعاتی آشکاری رو نمی­بینم. البته ممکنه موضوعات پیش­بینی نشده­ای در مورد محدودیت­ها وجود داشته باشه. نمی­تونم بگم. اما حقیقت اینه که مهم نیست که دایرۀ اطلاعاتی من چقدر گسترده هست".

    -: "درسته. ما هم نمی­تونیم تا ابد وقتمون رو به جمع آوری اطلاعات بگذرونیم. رابرتسون به من گفته که ما فقط دو سال وقت داریم و سه ماهش گذشته. پیشنهادی نداری که بدی"؟

    -: "در حال حاضر چیزی ندارم، آقای هاریمن. من باید اطلاعات رو سبک و سنگین کنم و همین منظور می­تونم کمک بگیرم".

    -: "از من"؟

    -: "نه، مخصوصاً از شما نمی­خوام کمک بگیرم. شما یه انسان هستید و هرچیزی که بگین، ممکنه که حالت دستوری داشته باشه و برداشت من رو تحت تأثیر قرار بده. و به همین دلیل، هیچ انسان دیگه­ای هم نمی­تونه باشه، مخصوصاً اینکه شما من رو از ارتباط با هر انسانی منع کردین".

    -: "پس اگه این طوره، جورج، از کی می­خوای کمک بگیری"؟

    -: "از یه روبات دیگه".

    -: "کدوم روبات"؟

    -: "روبات­های دیگه­ای از سری JG هستن که قبلاً ساخته شدن. من دهمی هستم، 10JG..."

    -: "مدل­های قبلی به درد نمی­خورن، فقط نمونه­های آزمایشی بودن..."

    -: "آقای هاریمن، جورج 9 هنوز وجود داره".

    -: "خوب، فایدۀ وجودش چیه؟ اون کاملاً شبیه به توئه همراه با کمبودهای مسلمش. بین شما دوتا، تو به میزان قابل توجهی همه فن حریف­تری".

    جورج ده سرش را به سنگینی تکان داد و گفت: "در این باره مطمئنم. با این وجود، به محض اینکه من یه خط فکر رو به وجود آوردم، به صرف اینکه چنین چیزی رو به وجود آوردم، به من این پیشنهاد رو کرد و من دیدم که برام مشکله که ردش کنم. اگه من بتونم بعد از اینکه یه خط فکری رو توسعه دادم، اون رو برای جورج 9 توضیح بدم، اون می­تونه بدون اینکه قبلاً اون خط فکری رو به وجود آورده باشه، بررسیش کنه. در نتیجه می­تونه اون رو بدون پیچش قبلی ببینه. می­تونه متوجه شکاف­ها و میون­برهایی بشه که من ممکنه نبینم".

    هاریمن لبخندی زد و گفت: "به عبارت دیگه، دو تا مغز بهتر از یکیه، هان، جورج"؟

    -: "آقای هاریمن، اگه منظورتون از این حرف، دو تا مغز مجزا در یه سر یک پارچس، باید بگم بله".

    -: "درسته. چیز دیگه­ای هم هست که بخوای"؟

    -: "بله. چیزی بیشتر از فیلم. خیلی از اونها رو دیدم که در مورد انسانها و دنیای اونهاست. ‍‍من انسان­ها رو اینجا در شرکت روبات­ها دیدم و می­تونم تفسیری که در مقابل تأثیر گذاری مستقیم حسی داشتم رو بررسی کنم. اما چنین کاری رو نمی­تونم در مورد دنیای طبیعی انجام بدم. من اون دنیا رو ندیدم و مشاهداتی که داشتم کافیه که به من بگه محیط اطراف من در اینجا به هیچ وجه نمایانگر دنیای بیرون نیست. من می­خوام دنیا رو ببینم".

    -: "دنیای طبیعی". به نظر می­رسید که برای یک لحظه، هاریمن از عظمت این فکر گیج شده است. او ادامه داد: "مطمئناً تو نمی­خوای به من پیشنهاد بدی که تو رو از محیط شرکت روباتها ببرم بیرون".

    -: "چرا، پیشنهاد من همینه".

    -: "این غیر قانونیه. در حال و اوضاعی که الآن وجود داره، این کار فاجعه باره".

    -: "اگه متوجه ما بشن، همینطوره. پیشنهاد من این نیست که شما من رو به یه شهر یا حتی یکی از خونه­های انسان­ها ببرین. چیزی که من می­خوام ببینم، یه منطقۀ باز، بدون وجود انسان­هاست".

    -: "اون هم غیر قانونیه".

    -: "اگه ما رو بگیرن. آیا لازمه که ما رو بگیرن"؟

    هاریمن گفت: "این چه ضرورتی داره، جورج"؟

    -: "نمی­تونم بگم، ولی به نظرم می­رسه که مفید باشه".

    -: "چیزی توی ذهنت داری"؟

    به نظر می­رسید که جورج ده تردید کرده است. او گفت: "نمی­تونم بگم. به نظرم می­رسه که اگه قسمت­های واضحی از عدم اطمینان کاهش پیدا کنه، ممکنه یه چیزی داشته باشم".

    -: "خوب، بذار راجع بهش فکر کنم. در این مدت، جورج نه رو کنترل می­کنم و ترتیبی میدم که شما توی یه کابین بمونین. حداقل می شه این کار رو بدون دردسر انجام داد".

     

    3 الف

     

    جورج ده در تنهایی نشسته بود.

    او مسائل را به صورت موقت پذیرفته بود، آنها را کنار هم چیده بود، و از آن نتیجه گیری کرده بود. بارها و بارها، و از آن نتیجه، موضوعی ساخته بود که آن را پذیرفته بود، سپس آن را آزمایش کرده بود و موردی یافته بود که با آن مغایر بود و آن موضوع را رد کرده بود؛ یا اینکه رد نکرده بود و آن را به صورت یک مسألۀ دیگر به صورت موقت پذیرفته بود.

    در مورد هیچ کدام از آن نتیجه گیری­ها، او احساس تعجب، غافلگیری یا رضایت نداشت. تنها علامت­های مثبت و منفی در کنار آنها گذاشته بود.

  • نظرات() 
  • شنبه 24 بهمن 1394

    2

     

    ماکسول رابرتسون سهامدار عمدۀ شرکت روبات­های ایالات متحده بود و به آن حس مالکیت داشت. ظاهرش به هیچ وجه تأثیر گذار نبود. پا به سنین میانسالی گذاشته بود، نسبتاً خپل و کوتاه بود و عادت داشت وقتی که ناراحت می شود، گوشۀ سمت راست لب پایینی­اش را بجود.

    با وجود دو دهه همکاری با افراد دولتی، او راهی برای کنترل کردن آنها یافته بود. او آمادگی این را داشت که با رفتار نرم، مجاب شدن و لبخند زدن همیشه زمان بیشتری به دست بیاورد.

    اما کارها سخت­تر می­شد. گانر اِیزنمات یکی از دلایل بزرگ آن بود. در میان ردیفی از خادمان متحد جهانی، که قدرتشان در طول قرن گذشته در خدمت هیئت اجرایی جهانی بود، ایزنمات خیلی بیشتر از بقیه اهل مصالحه بود. او اولین خادمی بود که در آمریکا متولد نشده بود و اگرچه این موضوع به هیچ وجه قابل اثبات نبود که این نام کهن شرکت روبات­های ایالات متحده بود که خصومت او را برانگیخته است، اما همۀ آنهایی که در شرکت روبات­ها بودند به آن باور داشتند.

    پیشنهاد شده بود، البته نه در سال نخست و نه در نسل اول که نام شرکت باید به «روبات­های جهانی» تغییر پیدا کند، اما رابرتشون چنین اجازه­ای نمی­داد. شرکت اصلی با سرمایۀ آمریکایی، مغزهای آمریکایی و کار و زحمت آمریکایی ساخته شده بود و اگرچه مدت­ها بود که شرکت از لحاظ گستره و ماهیت، جهانی شده بود، تا زمانی که تحت کنترل او قرار داشت، نام آن باید گواهی بر اصلیت آن می­بود.

    ایزنمات مرد قد بلندی بود که چهره­ای دراز و غمگین با خطوط و ظاهری زمخت و خشن داشت. زبان جهانی را با لهجۀ آمریکایی تلفظ می­کرد، با این وجود، هرگز پیش از این به دفترش در ایالات متحده نرفته بود.

    -: "این به نظر من کاملاً واضحه، آقای رابرتسون. هیچ مشکلی وجود نداره. تولیدات شرکت شما همیشه اجاره داده شدن و هیچ وقت فروخته نشدن. اگه به دارایی اجاره­ای در ماه، دیگه نیازی نباشه، این به عهدۀ شماست که تولیداتتون رو پس بگیرین و ترتیب انتقال اونها رو بدین".

    -: "بله، جناب خادم. اما به کجا؟ این برخلاف قانونه که اونها رو بدون اجازۀ دولت به زمین بیاریم و چنین چیزی ممنوعه".

    -: "اونها اینجا برای شما هیچ فایده­ای ندارن. می­تونین اونها رو به سیارۀ تیر یا به سیارک­ها بفرستین".

    -: "باهاشون اونجا چکار کنیم"؟

    ایزنمات شانه­ای بالا انداخت و گفت: "نوابع شرکتتون می­تونن یه فکری براش بکنن".

    رابرتسون سرش را تکان داد و گفت: "در این صورت شرکت کلی ضرر می­کنه".

    ایزنمات بدون حرکت گفت: "متأسفم که چنین اتفاقی میفته. این رو درک می­کنم که شرکت چند ساله که در وضعیت اقتصادی ضعیفی به سر می­بره".

    -: "بیشترش به خاطر اینه که دولت برای ما محدودیت به وجود آورده، جناب خادم".

    -: "شما باید واقع گرا باشید، آقای رابرتسون. شما که می­دونین مخالفت عمومی علیه روبات­ها در حال افزایشه".

    -: "چنین چیزی اشتباهه، جناب خادم".

    -: "اما به هر حال وجود داره. شاید انحلال شرکت خردمندانه­تر باشه. البته این صرفاً یه پیشنهاده".

    -: "توی پیشنهادتون یه نوع اجبار وجود داره، جناب خادم. آیا این لازمه که بهتون بگم، این ماشین­های ما بودن که یه قرن پیش، بحران محیط زیست رو حل کردن"؟

    -: "مطمئنم که بشریت از شما سپاسگذاره، ولی اون ماجرا مال مدت­ها پیش بود. ما حالا در همبستگی با طبیعت زندگی می­کنیم، اگرچه اشاره به گذشته­ها ناراحت کنندس، اما گذشته­ها گدشته".

    -: "منظور شما اینه که ما اخیراً برای بشریت چکار کردیم"؟

    -: "گمون کنم همینه".

    -: "مطمئناً نمیشه از ما انتظار داشت که فوراً شرکت رو منحل کنیم؛ نه بدون ضرر خیلی زیاد. ما به زمان نیاز داریم".

    -: "چقدر"؟

    -: "چقدر شما می­تونین به ما زمان بدین"؟

    -: "این به عهدۀ من نیست".

    رابرتسون به نرمی گفت: "ما اینجا تنهاییم. لازم نیست با همدیگه بازی کنیم. چقدر زمان می­تونین به ما بدین"؟

    حالت ایزنمات طوری شد که گویی دارد با خودش محاسبه می­کند. او گفت: "فکر می­کنم می­تونین روی دو سال آینده حساب کنین. من با شما رو راستم. دولت قصد این رو داره که اگه شما خودتون چنین کاری رو انجام ندین، کنترل شرکت رو کم و بیش به دست بگیره و به کارش خاتمه بده. مگه اینکه تغییر گسترده­ای در عقیدۀ عمومی ایجاد بشه، که من به شدت در این باره تردید دارم". او سرش را تکان داد.

    رابرتسون به نرمی گفت: "پس دو سال وقت داریم".

     

    2 الف

     

    رابرتسون در تنهایی نشسته بود.

    افکارش هدفی نداشت و به گذشته می­اندیشید. چهار نسل از رابرتسون­ها ریاست شرکت را به عهده داشتند. هیچ کدام از آنها روبات شناس نبودند. افرادی مثل لانینگ و باگرت و بیش از همه، سوزان کالوین بودند که شرکت روبات­ها را به چیزی تبدیل کرده بودند که بود. اما مطمئناً آن چهار رابرتسون بودند که فضایی ایجاد کرده بودند که کار آنها را ممکن کرده بود.

    بدون وجود شرکت روبات­­های ایالات متحده، قرن بیست و یکم ممکن بود وارد فاجعۀ عمیقی شود. این به خاطر ماشین­ها بود که توانسته بودند برای یک نسل، بشریت را به سرعت از میان مسیر­های تاریخ بگذرانند.

    و حالا به خاطر آن، به او دو سال زمان داده شده بود. در عرض دو سال چه کاری می­شد انجام داد که بتوان به تعصب چیرگی ناپذیر بشریت فائق آمد؟ او نمی­دانست.

    هاریمن با امیدواری در مورد ایده­های جدیدی حرف زده بود اما زیاد به جزئیات آن نپرداخته بود. البته این خوب بود، چون اگر هم می­گفت، رابرتسون چیزی از آن سر در نمی­آورد.

    اما آیا هاریمن می­توانست کاری انجام دهد؟ آیا کاری وجود داشت که کسی بتواند در مورد بیزاری بشر از موجود مشابهش انجام دهد؟ هیچ کاری...

    رابرتسون وارد حالت نیمه هشیاری­ای شد که هیچ جرقۀ الهامی از آن بیرون نیامد.

     ادامه دارد...

     

  • نظرات() 
  • جمعه 23 بهمن 1394

    ...که در اندیشۀ او هستی

    1

    کیت هاریمن که مدت دوازده سال بود که به سمت مدیریت تحقیقات شرکت روبات­ها و مردان مکانیکی ایالات متحده اشتغال داشت، به این نتیجه رسیده بود که مطمئن نیست که کاری که انجام می­دهد کاملاً درست باشد. نوک زبانش را به لبهای کلفت اما رنگ پریده­اش کشید و به نظرش رسید که تصویر هولوگرافیک سوزان کالوین کبیر که بدون لبخند از آن بالا به او خیره شده، هیچوقت اینقدر خشن نبوده است.

    در حالت عادی او نگاهش را از تصویر بزرگترین روبات شناس تاریخ برمی­گرفت، برای اینکه او را عصبی می­کرد (او سعی کرد به تصویر به عنوان یک شیء بی­روح فکر کند، اما چندان موفق نبود). اما این بار جرأت نکرد و نگاه خیره و مرگبار او به صورتش نفوذ می­کرد.

    گامی سهمگین و خوار کننده بود که او باید برمی­داشت. در مقابلش جورج ده قرار داشت که آرام ایستاده بود و نه تحت تأثیر ناآرامی آشکار هاریمن قرار گرفته بود و نه تصویر قدیسۀ روبات شناسان که در فرورفتگی دیوار می­درخشید، روی آن اثر می­گذاشت.

    هاریمن گفت: "ما تا به حال فرصت این رو نداشتیم که واقهاً در این باره صحبت کنیم، جورج. تو مدت­ها پیش ما نبودی و من هم فرصت مناسبی نداشتم که تنها باهات حرف بزنم. ولی حالا می­خوام موضوع رو با یه مقدار جزئیات شرح بدم".

    جورج گفت: "من هم واقعاً مایلم که این کار رو انجام بدم. در مدت اقامتم در شرکت روبات­ها به این نتیجه رسیدم که باید کاری در مورد سه قانون انجام داد".

    -: "بله. البته تو که سه قانون رو می­دونی".

    -: "بله، می­دونم".

    -: "من هم مطمئنم که می­دونی. ولی بیا یه کم عمیقتر شخم بزنیم و مشکل رو به صورت پایه­ای بررسی کنیم. اگه بتونم این طور بگم، در طی دو قرن موفقیت قابل توجه، شرکت روبات­های ایالات متحده هرگر نخواسته که انسان­ها رو به پذیرش روبات­ها ترغیب کنه. ما از روبات­ها برای کار ضروری در مناطقی استفاده می­کنیم که انسان­ها نمی­تونن کار کنن، یا در جاهایی که برای انسان­ها به میزان غیر قابل قبولی خطرناکه. روبات­ها بیشتر در فضا کار می­کنن و این موضوع کارهایی که ما قادر به انجامش هستیم رو محدود می­کنه".

    جورج ده گفت: "مطمئناً این موضوع محدودیت گسترده­ای رو ایجاد می­کنه، محدودیتی که شرکت روبات­ها می­تونه از طریق اون به شکوفایی برسه".

    -: "نه، به دو دلیل. اول اینکه چنین محدودیتی به طرز قیر قابل اجتنابی دست و پای ما رو بسته. به عنوان مثال وقتی که مهاجرنشین ماه پیشرفته­تر شد، خواستار کاهش تعداد روبات­ها شد و ما انتظار این رو داشتیم، و در طی چند سال بعد، استفاده از روبات­ها در روی ماه ممنوع شد. این مسأله در تک تک مهاجرنشین­های انسان­ها تکرار شد. دوم اینکه بدون وجود روبات­ها روی زمین، شکوفایی تحقق پیدا نمی­کنه. ما توی شرکت روبات­ها به شدت معتقدیم که انسان­ها به روبات­ها نیاز دارن و اگه این روند بخواد پابرجا بمونه، باید یاد بگیرن که چطور با همنوعان مکانیکی­شون زندگی کنن".

    -: "اونها این کار رو نمی­کنن؟ آقای هاریمن، شما روی میز کارتون یه رایانه دارین، که تا اونجایی که من فهمیدم، به سازمان مولتی­وک ارتباط داره. یه رایانه، یه نوع روبات بی­حرکته. یه مغز روباتی که به بدن روباتی متصل نیست..."

    -: "درسته، اما این هم محدودیت داره. رایانه­هایی که انسان­ها ازش استفاده می­کنن، به منظور جلوگیری از پیدا شدن هوش شبه انسانی، مدام تخصصی­تر میشن. یه قرن پیش ما در زمینۀ ساخت هوش مصنوعی به نامحدود­ترین شکل از طریق استفاده از رایانه­های بزرگی که بهشون «ماشین» می­گفتیم، خیلی خوب عمل کردیم. اون ماشین­ها فعالیتشون رو به خواست خودشون محدود کردن. به محض اینکه اونها مشکلات محیط زیستی رو که جامعۀ بشریت رو تهدید میکرد، حل کردن، کار خودشون رو متوقف کردن. دلیلشون این بود که ادامه پیدا کردن وجودشون برای انسان­ها حکم چوب­های زیر بغل رو داره و به محض اینکه به این نتیجه رسیدن که چنین چیزی می­تونه به بشریت آسیب برسونه، خودشون رو با قانون اول محکوم کردن".

    -: "و این کار اونها درست نبود"؟

    -: "به عقیدۀ من، نه. اونها با این کارشون عقدۀ فرانکنشتاین بشریت رو تقویت کردن؛ که بر اساس اون هر انسان مصنوعی­ای که خلق میشه، در مقابل خالقش قرار می­گیره. انسان­ها از این می­ترسن که روبات­ها جای اونها رو بگیرن".

    -: "تو خودت از این موضوع نمی­ترسی"؟

    -: "من این موضوع رو بهتر درک می­کنم. تا زمانی که قوانین سه گانۀ روباتیک وجود داره، اونها نمی­تونن جای ما رو بگیرن. اونها می­تونن مثل یک همکار به بشریت خدمت کنن، اونها می­تونن در تلاش بزرگ برای درک و هدایت قوانین طبیعت مشارکت داشته باشن و همراه با هم می­تونن کار بیشتری انجام بدن از چیزی که بشریت می­تونه به تنهایی انجام بده. اما همیشه در چنین راهی، روبات­ها در خدمت انسان­ها خواهند بود".

    -: "ولی اگه در طی دو قرن، قوانین سه گانه خودشون روبه عنوان چیزی که روبات­ها رو در بند نگه می­داره نشون دادن، علت این عدم اعتماد انسان­ها به روبات­ها چیه"؟

    -: "خوب..." هاریمن سرش را به شدت خاراند و موهایش سیخ سیخ شدند و ادامه داد: "البته بیشترش خرافاته. متأسفانه یه مقدار پیچیدگی هم در مورد آشوبگران ضد روبات وجود داره".

    -: "به قوانین سه گانه مربوط میشه"؟

    -: "بله، مخصوصاً قانون دوم. قانون سوم مسأله­ای نیست. این یه چیز جهانیه. روبات­ها همیشه باید خودشون رو برای انسان­ها قربانی کنن؛ برای هر انسانی".

    جورج ده گفت: "البته که این طوره".

    -: "قانون اول شاید از همه کمتر راضی کننده باشه، چرا که همیشه امکان تصور این موقعیت وجود داره که یه روبات باید یا واکنش الف رو انجام بده یا واکنش ب رو، و هر دو اونها ویژگی­های منحصر به فردی دارن، و هر کدوم ممکنه باعث آسیب رسیدن به انسان بشه. یه روبات باید سریع تصمیم بگیره که کدوم واکنش آسیب کمتری ایجاد می­کنه. عملکرد شیارهای مغز یک روبات به گونه­ایه که باعث میشه این، تصمیم راحتی نباشه. اگه نتیجۀ واکنش الف منجر به آسیب رسیدن به یه هنرمند بااستعداد جوون و نتیجۀ عکس­العمل ب، آسیب برابری به پنج انسان پیر بشه که هیچ ارزش خاصی ندارن، کدوم واکنش باید برگزیده بشه"؟

    جورج ده گفت: "واکنش الف. آسیب به یک نفر کمتر از آسیب به پنج نفره".

    -: "به همین دلیله که روبات­ها همیشه طوری طراحی شدن که بتونن تصمیم بگیرن. انتظار اینکه روبات­ها بتونن بر اساس نکات مثبتی مثل استعداد، هوش و فایدۀ عمومی برای جامعه قضاوت کنن، همیشه غیر عملی به نظر می­رسیده. چنین موضوع­هایی می­تونه تصمیم گیری رو اونقدر به تأخیر بندازه که مؤثر بودن روبات­ها رو بی­فایده می­کنه. بنابراین، ما بر اساس تعداد تصمیم گیری می­کنیم. خوشبختانه می­تونیم انتظار داشته باشیم که تعداد بحران­هایی که در اون روبات­ها مجبور به چنین انتخاب­هایی میشن، کمه... اما بعد، مسألۀ قانون دوم رو برامون پیش میاره".

    -: "قانون فرمانبرداری".

    -: "بله. نیاز به فرمانبرداری یه مسألۀ همیشگیه. یه روبات ممکنه بیست سال وجود داشته باشه، بدون اینکه نیاز به واکنش فوری برای جلوگیری از آسیب رسیدن به یه انسان داشته باشه، یا اینکه با خطر نابودی خودش روبرو بشه، با این وجود، در تمام این مدت مجبوره که از دستورات اطاعت کنه... اما دستورات چه کسی"؟

    -: "همون انسان­ها".

    -: "هر انسانی؟ تو چطور می­تونی یه انسان رو تشخیص بدی که از دستورش اطاعت بکنی یا نکنی؟ انسان چیست که تو در اندیشۀ او هستی، جورج"؟

    جورج تردید کرد.

    هاریمن با عجله گفت: "این یه نقل قول از کتاب مقدسه. چیز مهمی نیست. منظورم اینه که آیا یه روبات باید از دستورات یه بچه، یا یه آدم ابله، یا یه جنایتکار، یا یه انسان کم خرد که تخصص کافی نداره و به همین دلیل از نتایج ناخواستۀ دستوراتش غافله هم اطاعت کنه؟ و یا اگه دو انسان به یه روبات دستوری بدن که در تضاد با همدیگه باشه، اون روبات از دستور کدومشون اطاعت می­کنه"؟

    جورج ده گفت: "آیا در طول دویست سال، چنین مشکلاتی به وجود نیومدن که حل شده باشن"؟

    هاریمن درحالی که دستش را به شدت تکان می­داد گفت: "نه، چون این حقیقت دست و پای ما رو بسته که روبات­ها در محیط­های خیلی مخصوص مثل فضا، به کار گرفته شدن، جایی که انسان­هایی که باهاشون برخورد دارن در اون زمینه کاملاً تخصص دارن. اونجا هیچ بچه، یا آدم ابله، یا جنایتکار، یا آدمی که به معنای دقیق، بی­سواد و غیر متخصص باشه، وجود نداره. حتی در چنین شرایطی هم مواقعی وجود داره که به دلیل دستورات احمقانه یا دستوراتی که به خوبی دربارشون فکر نشده، آسیب­هایی به وجود میاد. در محیط­های مخصوص و محدود ممکنه که چنین آسیب­هایی به وجود بیاد. اما روبات­ها روی زمین مجبور به قضاوت هستن. پس اونهایی که ضد روبات­ها هستن هم باقی می­مونن و لعنت بهشون- حق با اونهاست".

    -: "پس شما باید ظرفیت قضاوت رو به مغزهای پوزیترونیک اضافه کنید".

    -: "دقیقاً! ما شروع به باز تولید روبات­های JG کردیم که می­تونن هر انسانی رو بر اساس جنسیت، سن و سال، موقعیت اجتماعی و حرفه­ای، هوش، درایت، مسئولیت اجتماعی و غیره سبک و سنگین کنن".

    -: "چنین چیزی چطور می­تونه روی سه قانون تأثیر بذاره"؟

    -: "روی سه قانون هیچ تأثیری نداره. حتی باارزش­ترین روبات هم باید خودش رو برای کم ارزش­ترین انسان فدا کنه. این موضوعیه که نمیشه تمهیدی دربارش اندیشید. قانون اول زمانی مؤثره که تمام واکنش­های جایگزین باعث آسیب رسیدن بشن. کیفیت انسان بودن شامل کمیت­هاییه که باید تعریف بشه و زمانی برای چنین قضاوتی و پایه و اساس اون تهیه بشه، که اغلب این طور نیست. وقتی که قابلیت فرمانبرداری، شامل قضاوت هم بشه، قانون دوم باید عمیقاً تعدیل بشه. در این صورت یه روبات خیلی کندتر از دستورات اطاعت می­کنه، مگر در جایی که شامل قانون اول هم بشه، اما با این وجود اطاعت کردن خیلی عقلانی­تره".

    -: "ولی قضاوت­هایی که لازمه خیلی پیچیده هستن".

    -: "خیلی. نیاز به چنین قضاوتی واکنش­های دو مدل اولیۀ ما رو اون قدر کند کرد که نقطۀ فلج ذهنی رسیدن. ما مواد سازندۀ مدل­های بعدی­مون رو به قیمت معرفی شیار­های جدیدی در مغز پوزیترونیک ارتقاء دادیم که باعث شد مغز روبات­ها خیلی بزرگ و سنگین بشه. به هر حال در دو مدل آخر، فکر می­کنم اون چیزی که می­خواستیم رو بدست آوردیم. روبات­ها نیازی به قضاوت فوری در مورد ارزش انسان­ها یا دستوراتی که میده ندارن. اون روبان مثل همۀ روبات­های معمولی دیگه اول با اطاعت کردن از دستور همۀ انسان­ها شروع می­کنه و بعد کم کم یاد می­گیره. روبات رشد می­کنه، یاد می­گیره و مهارت کسب می­کنه. درست مثل یه بچه که اول باید تحت نظارت دائمی باشه. همچنان که رشد می­کنه، می­تونه بیشتر و بیشتر اجازه پیدا کنه که بدون اینکه تحت نظارت باشه، وارد جامعۀ زمین بشه. در نهایت می­تونه عضو کاملی از جامعه بشه".

    -: "مطمئناً این می­تونه پاسخی باشه برای اونهایی که مخالف روبات­ها هستن".

    هاریمن با خشم گفت: "نه، اونها اعتراضات دیگه­ای رو مطرح می­کنن. اونها این قضاوت رو قبول نمی­کنن. اونها میگن که یه روبات حق این رو نداره که به این شخص یا اون شخص برچسب پست بودن بزنه. با پذیرفتن دستورات فرد الف که به فرد ب ارجحیت داره، به فرد ب این برچسب می­خوره که ارزش کمتری از فرد الف داره و به حقوق انسانیش اهانت میشه".

    -: "پاسخ این مسأله چیه"؟

    -: "پاسخی وجود نداره. من دارم تسلیم میشم".

    -: "متوجه هستم".

    -: "تا زمانی که فقط خودم مطرح باشم، مجبورم به تو رو بیارم، جورج".

    -: "به من"؟ صدای جورج ده همچنان یکنواخت ماند. در صدایش نوعی غافلگیری ملایم وجود داشت، اما روی هاریمن چندان تأثیری نگذاشت. جورج ادامه داد: "چرا به من"؟

    هاریمن با حالتی عصبی گفت: "برای اینکه تو انسان نیستی. قبلاً بهت گفته بودم که من می­خوام روبات­ها همکار انسان باشن. ازت می­خوام که تو هم همکار من باشی".

    جورج ده با حالت انسانی بی­مانندی دستانش را در حالی که کف آنها رو به بالا بود، گشود و گفت: "من چکار می­تونم انجام بدم"؟

    -: "شاید به نظرت می­رسه که تو کاری نمی­تونی انجام بدی، جورج. تو مدت زیادی نیست که به وجود اومدی و هنوز یه بچه به حساب میای. طوری طراحی شدی که با اطلاعات دست اول پر نشدی. به خاطر همین بود که من باید اول شرایط رو با چنین جزئیاتی برات توضیح می­دادم، برای اینکه جا برای رشد بیشتری داشته باشی. تو از نظر ذهنی رشد می­کنی و می­تونی به مشکل از زاویۀ دید غیر انسانی نزدیک بشی. در جایی که من هیچ راه حلی نمی­بینم، تو، از زاویۀ دید خودت ممکنه چنین راه حلی رو ببینی".

    جورج ده گفت: "مغز من به دست انسان­ها ساخته شده. چطور ممکنه که غیر انسانی باشه"؟

    -: "تو آخرین روبات از مدل­های JG هستی، جورج. مغز تو پیچیده­ترین چیزیه که ما تا به حال طراحی کردیم. از بعضی جهات، خیلی ظریف­تر و پیچیده­تر از اون ماشین­های قدیمی و غول پیکره. انتهای باز داره و بر اساس اصول مغز انسان ساخته شده و ممکنه... نه... حتماً در همۀ جهات رشد می­کنه. با باقی موندن در قید و بندهای ناگسستنی سه قانون، فکر کردنت می­تونه کاملاً غیر انسانی بمونه".

    -: "آیا من به اندازۀ کافی در مورد انسان­ها می­دونم که بتونم به روشی عقلانی به مشکل نزدیک بشم؟ در بارۀ تاریخشون، یا در مورد روانشناسی­شون"؟

    -: "البته که نه، ولی می­تونی با حداکثر سرعتی که می­تونی، یاد بگیری".

    -: "به من کمکی خواهد شد، آقای هاریمن"؟

    -: "نه، این یه مسأله­س که کاملاً بین خودمونه. هیچ کس راجع به این مووع چیزی نمی­دونه و تو هم نباید در مورد این پروژه چیزی به هیچ انسانی بگی، چه در شرکت روبات­ها و چه در جاهای دیگه".

    جورج ده گفت: "آقای هاریمن، آیا ما داریم کار اشتباهی انجام میدیم که شما می­خواین این موضوع رو سری نگه دارین"؟

    -: "نه، اما راه حلی روباتی پذیرفته نخواهد شد. به خاطر اینکه یه روبات این راه حل رو ارائه داده. تو هر راه حل پیشنهادی که پیدا می­کنی رو به من ارجاع میدی، و اگه به نظر من ارزشمند اومد، من همون رو ارائه می­کنم. هیچ کس هم نمی­فهمه که اون کار تو بوده".

    جورج ده به آرامی گفت: "چیزهایی که شما تا به حال گفتین اون قدر موضوع رو روشن کرد که به نظر می­رسه شیوۀ صحیح همینه... من از کی می­تونم شروع کنم"؟

    -: "از همین حالا. من هماهنگ می­کنم که همۀ فیلم­های لازم برای اسکن کردن در اختیارت قرار بگیره".

     

    1 الف

     

    هاریمن در تنهایی نشسته بود.

    در روشنایی مصنوعی داخل دفترش هیچ نشانه­ای از این نبود که در بیرون هوا تاریک شده است. اصلاً حس نمی­کرد که سه ساعت از زمانی که جورج ده را به کابینش برگردانده و او را با نخستین فیلم­های مرجع رها کرده، گذشته است.

    حالا او فقط با روح سوزان کالوین تنها بود، روبات شناس نابغه­ای که عملاً یک تنه، روبات­های پوزیترونیک را از اسباب بازی­های غول پیکر به ابزارهایی ظریف و همه کاره تبدیل کرده بود، آنقدر ظریف و همه کاره که انسان جرأت نمی­کرد با وجود همۀ بدخواهی و ترسش، از استفاده از آنها دست بکشد.

    از زمانی که او مرده بود، بیش از یک قرن می­گذشت. مشکل عقدۀ فرانکنشتاین حتی زمان او هم وجود داشت، و او هرگز آن را حل نکرده بود. او اصلاً تلاشی برای حل آن نکرده بود، برای اینکه نیازی به حل آن وجود نداشت. در زمان او، روباتیک به دلیل نیاز به اکتشافات فضایی، گسترش یافته بود.

    این همان موفقیت روبات­ها بود که نیاز انسان­ها به آنها را در زمان سوزان کالوین کاسته بود و آن را برای او باقی گذاشته بود، در این زمان­های اخیر...

    اما آیا سوزان کالوین برای کمک به روبات­ها رو می­کرد؟ حتماً این کار را می­کرد.

    او مدت­ها در طول شب همانجا نشست.

    ادامه دارد...

     

  • نظرات() 
  • آمار وبلاگ

    • کل بازدید :
    • بازدید امروز :
    • بازدید دیروز :
    • بازدید این ماه :
    • بازدید ماه قبل :
    • تعداد نویسندگان :
    • تعداد کل پست‌ها :
    • آخرین بازدید :
    • آخرین بروز رسانی :