| |
— И как это повлияет на Три Закона?
— На Третий Закон — вообще никак. Даже самый ценный робот обязан разрушить себя
ради самого ничтожного человека. Здесь ничего не изменится. Первого Закона это
коснется, только если альтернативные действия в любом случае причинят вред.
Тогда решение будет приниматься не только в зависимости от количества людей, но
и, так сказать, их качества, при условии, конечно, что на это хватит времени, а
основания для суждения будут достаточно вескими. Впрочем, такие ситуации
довольно редки. Самым сильным изменениям подвергнется Второй Закон, поскольку
любое потенциальное подчинение приказу будет включать в себя суждение о нем.
Реакция робота замедлится, за исключением тех случаев, когда в силу вступит
Первый Закон, зато исполнение приказа будет более осмысленным.
— Но способность судить о людях — вещь непростая.
— Вернее, крайне сложная. Необходимость сделать выбор замедляла реакцию наших
первых двух моделей до полного паралича. В следующих моделях мы пытались
исправить положение за счет увеличения мозговых связей — но при этом мозг
становился слишком громоздким. Однако в нашей последней паре моделей, на мой
взгляд, мы добились, чего хотели. Роботам теперь не обязательно сразу судить о
достоинствах человека или оценивать его приказы. Вначале новые модели ведут
себя как обычные роботы, то есть подчиняются любому приказанию, но одновременно
они обучаются. Робот развивается, учится и взрослеет, совсем как ребенок, и
поэтому сначала за ним необходим постоянный присмотр. Но по мере развития он
станет все более и более достойным того, чтобы человеческое общество на Земле
приняло его в свои ряды как полноправного члена.
— Это, несомненно, снимает возражения противников роботов.
— Нет, — сердито возразил Харриман. — Теперь они выдвигают новые претензии: им
не нравится, что роботы способны к суждениям. Робот, говорят они, не имеет
права классифицировать того или иного человека как личность низшего сорта.
Отдавая предпочтение приказам некоего А перед приказами некоего Б, они тем
самым считают Б менее ценным по сравнению с А и нарушают основные права
человека.
— И как вы ответите на это?
— Никак. Я сдаюсь.
— Понимаю.
— Но это касается только меня лично. Потому-то я и обращаюсь к тебе, Джордж.
— Ко мне? — Голос Джорджа остался таким же ровным, лишь мягкое удивление
прозвучало в нем. — Почему ко мне?
— Потому что ты не человек, — с нажимом произнес Харриман. — Я уже говорил тебе,
что хочу видеть роботов партнерами людей, — вот и стань моим партнером.
Джордж Десять беспомощно, странно человеческим жестом развел руками.
— Что я могу сделать?
— Тебе, конечно, кажется, что ты ничего не можешь, Джордж. Ты создан совсем
недавно, в сущности, ты еще дитя. Тебя специально не перегружали информацией —
поэтому мне и приходится объяснять все так подробно, — чтобы оставить место для
развития. Но твой интеллект будет развиваться и позволит тебе взглянуть на
проблему с иной, не человеческой точки зрения. Там, где я не вижу выхода, ты
можешь найти его.
— Мой мозг сконструирован людьми. Как он может быть нечеловеческим?
— Джордж, ты последняя модель серии ДжР. Твой мозг — наиболее сложный из всех,
которые мы создавали когда-либо, в чем-то он устроен даже более тонко, чем у
прежних огромных Машин. Он представляет собой открытую систему, и, несмотря на
изначальное человекоподобие, эта система может развиваться — будет развиваться
— в любом неожиданном направлении. Оставаясь в непреложных границах Трех
Законов, ты можешь обрести тем не менее совершенно нечеловеческий образ
мышления.
— Но хватит ли у меня знаний о людях, чтобы правильно подойти к проблеме? Об их
истории? Психике?
— Конечно, нет. Но ты будешь обучаться настолько быстро, насколько это возможно.
— Мне будет кто-нибудь помогать, мистер Харриман?
— Нет. Все это строго между нами. Никто ни о чем не должен знать, и ты не
должен говорить об этом проекте ни одному человеку, ни в «Ю. С. Роботс», ни за
пределами фирмы.
— Мы совершаем нечто предосудительное, мистер Харриман, если вы так настаиваете
на сохранении тайны? — спросил Джордж.
— Нет. Но решение, предложенное роботом, не будет принято именно потому, что
оно исходит от робота. Как только ты что-нибудь придумаешь, сразу дай мне знать,
и, если твое решение покажется мне верным, я представлю его как свое. Никто не
узнает, что ты его автор.
— В свете того, что вы говорили раньше, — спокойно проговорил Джордж Десять, —
это кажется мне вполне разумным. Когда приступать?
— Прямо сейчас. Я позабочусь о том, чтобы у тебя были все необходимые пленки.
1а
Харриман остался один. Искусственное освещение в кабинете скрадывало
наступившие сумерки. Ощущение времени как-то стерлось, и Харриман даже не
заметил, что, с тех пор как он отвел Джорджа Десять в его ячейку и оставил там
с первой порцией пленок, прошло уже три часа.
Теперь он сидел в полном одиночестве, наедине с призраком Сьюзен Кэлвин,
блестящего робопсихолога, которая мановением руки превратила позитронных
роботов из громоздких игрушек в самый разносторонний и тонкий инструмент для
человека — настолько тонкий и многогранный, что люди не осмеливались, от страха
|
|