Моральные последствия создания настоящего искусственного интеллекта
В эпизоде «Критерий человека» научно-фантастического сериала «Звездный путь: Следующее поколение» член экипажа «Энтерпрайза» андроид Дейта будет демонтирован для исследовательских целей, если капитан Пикард не сможет утверждать, что Дейта заслуживает тех же прав на существование, что и человек. Естественно, возникает вопрос: что является основой для такого права? И что же придает сущности моральный статус?
Австралийский философ Питер Сингер считает, что существа, которые могут чувствовать боль или страдать, претендуют на моральное положение. Он утверждает, что нечеловеческие существа обладают моральными качествами, поскольку могут чувствовать боль и страдать. Ограничение этого людьми было бы формой спесишизма (видовая дискриминация), чем-то вроде расизма и сексизма.
Однако можно ли применить аргументацию Сингера на робота-андроида, такого как Дейта? Ведь для этого потребуется, чтобы Дейта чувствовал боль или страдал. И то, как вы ответите, зависит от субъективного понимания сознания и интеллекта.
По мере того как настоящая технология искусственного интеллекта приближается к воображаемым версиям Голливуда, вопрос морального статуса становится все более важным. Некоторые современные философы считают, что если у искусственного интеллекта (ИИ) есть моральные устои, то они имеют право на жизнь. Их уже нельзя просто разобрать на части, а также люди не должны мешать достижению их личных целей.
Два вида интеллекта и тест
Шахматная машина Deep Blue от IBM была успешно обучена, чтобы обыграть гроссмейстера Гарри Каспарова. Однако ничего другого компьютер сделать не мог. Он обладал так называемым «предметно-ориентированным интеллектом».
С другой стороны, есть такой интеллект, который позволяет хорошо делать множество вещей — общий интеллект. Это то, что позволяет людям готовить, кататься на лыжах и растить детей — задачи взаимосвязанные, но при этом очень разные.
Общий искусственный интеллект или AGI — это термин, обозначающий машины, обладающие общим интеллектом. Пожалуй, ни одна созданная машина еще этого не продемонстрировала. Летом 2020 года стартап OPENAI выпустил новую версию своей языковой модели Generative Pre-Training. GPT-3 — система обработки естественного языка, обученная чтению и письму, чтобы ее могли легко понять люди.
Система сразу привлекла внимание не только из-за своей впечатляющей способности имитировать стилистические штрихи и собирать правдоподобный контент, но и из-за того, насколько далеко она ушла от предыдущей версии. Несмотря на эту впечатляющую производительность, GPT-3 на самом деле ничего не умеет, кроме того, как соединять слова различными способами. Общего интеллекта не хватает в значительной степени.
Названный в честь первопроходца в области ИИ Алана Тьюринга, тест Тьюринга помогает определить, является ли искусственный интеллект разумным. Может ли человек, разговаривающий со скрытым ИИ, определить, ИИ это или человек? Если определить не удалось, то можно считать искусственный интеллект достаточно умным для всех практических целей. Но этот тест ничего не говорит о сознании ИИ.
Две части сознания
Сознание состоит из двух частей. Во-первых, есть аспект опыта «каково мне» — сенсорная часть сознания. Философы называют это феноменальным сознанием. Речь идет о том, как вы переживаете такие явления, как запах розы или чувство боли.
Есть также доступное сознание. Это способность сообщать, рассуждать, вести себя и действовать скоординировано, а также быстро реагировать на стимулы, основанные на целях. Например, когда вы передаете футбольный мяч своему другу, который играет у ворот, вы реагируете на визуальные стимулы, действуя на основе предшествующей тренировки и преследуя цель, определенную правилами игры. Пас уже делается автоматически, без сознательного обдумывания, в процессе игры.
Слепое зрение прекрасно иллюстрирует разницу между двумя типами сознания. Кто-то с этим неврологическим заболеванием может сообщить, например, что он ничего не видит в левой части поля зрения. Но если человека попросят взять ручку из массы других объектов в левой части его поля зрения, то он с уверенностью сможет это сделать. Он не мог видеть эту ручку, но взял ее, когда попросили, — это пример доступа к сознанию без феноменальной составляющей.
Но вернемся к «Звездному пути». Дейта — это андроид. Как эти различия проявляются по отношению к нему?
Дилемма Дейты
Андроид показывает своим поведением, что у него есть самосознание, так как он может отслеживать, например, оптимально ли он заряжен, есть ли внутренние повреждения в его руке.
Дейта разумен и в общем смысле. Он делает много разных вещей на высоком уровне мастерства. Он способен управлять «Энтерпрайзом», подчиняться приказам капитана Пикарда и обдумывать с ним лучший путь.
Он также может играть в покер со своими товарищами по кораблю, готовить, обсуждать актуальные вопросы с близкими друзьями, сражаться с врагами на чужих планетах и заниматься различными видами физического труда. Дейта имеет доступ к сознанию. Он явно пройдет тест Тьюринга.
Однако андроиду, скорее всего, не хватает феноменального сознания: он, например, не наслаждается ароматом роз и не испытывает боли. Он олицетворяет увеличенную версию слепого зрения. Дейта осознает себя, но у него явная проблема с феноменальным сознанием.
Если андроид не чувствует боли (наличие этого чувства является одной из причин, которые предлагает философ Сингер для придания существу морального статуса), то условие не выполняется. Но Дейта может показывать другое — страдать, даже не чувствуя боли. Страдание может не требовать феноменального сознания, в отличие от боли.
Что, если бы страдание также определялось как идея препятствования преследованию правого дела без причинения вреда другим? Предположим, что цель Дейты — спасти свою команду, но он не может добраться до нее из-за повреждения конечности. Снижение активности, которое мешает ему спасти своего товарища по команде, является своего рода нефеноменальным страданием. Он предпочел бы спасти товарища по команде, и ему было бы лучше, если бы он это сделал.
В эпизоде «Критерий человека» вопрос заключается не в том, есть ли у андроида самосознание — это не вызывает сомнений. Очевидно и то, что он умен: Дейта легко демонстрирует свои навыки и знания. Остается неясным, обладает ли он феноменальным сознанием. Однако Дейту не разбирают на детали, потому что, в конце концов, судьи не могут прийти к согласию о значении сознания для морального статуса.
Должен ли ИИ получить моральный статус?
Дейта добрый. Он предпринимает все действия, чтобы поддерживать благополучие своих товарищей по команде и тех, кого он встречает на чужих планетах. Андроид подчиняется приказам людей и, похоже, не причинит им вреда, а также защищает свое собственное существование. По этим причинам он кажется мирным, и его легче принять в царство вещей, имеющих моральное положение.
А как же Скайнет в серии фильмов «Терминатор»? И что делать с опасениями, недавно высказанными Илоном Маском по поводу того, что ИИ более опасен, чем ядерное оружие, и Стивеном Хокингом, который считал, что искусственный интеллект уничтожит человечество?
Люди не теряют своего морального статуса только потому, что действуют вопреки интересам другого человека. Точно так же нельзя автоматически сказать, что только из-за того, что ИИ действует против интересов человечества или другого ИИ, он не имеет морального статуса. Возможно, вы имеете право сопротивляться искусственному интеллекту вроде Скайнет, но это не снижает его морального положения. Если моральный статус дается в силу способности нефеноменально страдать, то и Скайнет, и Дейта получат его, даже если андроид хочет помочь людям, а Скайнет — их уничтожить.
Машин с общим искусственным интеллектом пока нет. Но сейчас самое время подумать, что нужно сделать, чтобы обеспечить им моральный статус. То, как человечество решит ответить на вопрос о моральном положении небиологических существ, будет иметь большое значение для дальнейших взаимоотношений с будущими ИИ.
По материалам статьи «If a robot is conscious, is it OK to turn it off? The moral implications of building true AIs» The Conversation