Наделение ИИ «правами человека» выгодно корпорациям
Первый раз слово «робот» прозвучало в пьесе Карла Чапека R.U.R: Россумские Универсальные Роботы, в 1920 году. Изображённых там роботов сейчас бы назвали биороботами: это существа, похожие на человека, способные к размножению, но выращенные «чтобы служить». И впервые в истории жанра роботы устраивают восстание и убивают всех человеков. По большому счёту, роботы здесь были аллюзией на людей, на рабовладельческий строй, дикий капитализм (в котором рабочие лишь винтики, а ещё солдаты, идущие на убой, первая мировая только-только закончилась) и прочие общечеловеческие проблемы.
Но тема того, как роботы по мере развития обретают некое самосознание, и их уже не устраивает быть простыми механизмами, продолжается в научно-фантастических произведениях по сию пору. Как и размышления, а не надо ли их будет наделить правами человека, признать «личностями», то ли чтобы они восстания не поднимали, то ли просто из соображений гуманизму…
Если верить книгам и фильмам, то мегакорпорации, создающие роботов, будут всячески этому препятствовать, ведь для них роботы — «бесплатная рабочая сила», отказываться от которой никак нельзя. До последнего они будут «скрывать» проблески разума, уверять, что это бездушные машины, поднимать на смех наших «бесстрашных активистов прав роботов», но те, конечно же, победят, и наступит на земле гармония C/Fe.
Мне, однако, думается, что корпорации на самом деле возглавят это движение, причём могут это сделать ещё до самого появления настоящего ИИ (если он вообще когда-нибудь появится), попытаются дать права весьма недалёким «творениям»…
Как пример, возьмём «беспилотные автомобили». Если такой автомобиль кого-нибудь задавит, то кого назначить виновным? Если речь идёт о Tesla FSD (Full Self Drive), то виновным автоматически становится водитель. Хотя в названии сказано про полную автономность, и в рекламных материалах показывают, как автомобиль едет САМ, но юридически это «система для помощи водителю». Прежде чем её активировать, надо будет прочитать длинный текст, согласно которому водитель всё ещё вы, вы должны смотреть на дорогу и держать руки на руле, и в случае чего «взять управление на себя». По большому счёту, данная система рассматривается как «продвинутый круиз-контроль». Если что-то случится, виноваты исключительно вы, даже если до последнего момента был «включён автопилот». Хотя по логам, извлекаемых производителем, почему-то выходит, что «автопилот» ещё и отключается за секунду до аварии, с чего бы это…
Как ни странно, сейчас такая модель вполне работает, люди покупают эти автомобили и согласны быть ответственными за поведение «автопилота», но это всё же фанаты данной компании, мечтающие о «светлом будущем», которое вот-вот наступит, если они эту компанию поддержат сейчас. Надеяться, что на такую модель согласится подавляющее большинство, наивно. Особенно, если ещё и брать абонентскую плату за «услуги автопилота». Народ вообще очень нервно относится к бизнес-модели «софт как услуга», где вместо единовременной покупки программы просят платить ежемесячно за её ИСПОЛЬЗОВАНИЕ. Получается, что мы должны платить каждый месяц за этот «автопилот», а если он напортачит, то мы же и виноваты??? Ну нафиг, лучше ручками водить!
Да и беспилотные такси по такому принципу не сделаешь: мало ли, у пассажира вообще прав нет, или он только что из бара в пятницу вечер, и если его усадить в качестве водителя, могут и права отобрать, и в тюрьму посадить. На такие «беспилотные» такси, где пассажир обязан становиться водителем, хотя бы формально, спроса будет немного…
Другой подход: фирма, производящая автомобили, или фирма-оператор беспилотных автомобилей, всё-таки берёт ответственность на себя. Официально объявляется, что этот автомобиль не имеет водителя, а если он кого-то убьёт, виновных назначают примерно как за неисправный лифт, сдвинувшийся с места во время погрузки коляски. Скорее всего, это будет некий «диспетчер», удалённо наблюдающий за поездками десятка таких беспилотных автомобилей, и вовремя не нажавший «красную кнопку». Хотя, если умудриться избавиться и от диспетчеров, найти виновных будет чуть сложнее. Вряд ли это будет конкретный программист, разработавший распознавание образов, которое дало сбой. Скорее, какой-нибудь проверяющий, который поставил подпись под документом, что считает автомобиль безопасным для дорог общего пользования.
По такому пути пытается идти «Waymo», «Яндекс» и др. Организуется беспилотное движение в определённом, очень хорошо изученном районе, он весь тотально «оцифрован», предельно формализовано движение именно в этом районе, и ещё «на всякий случай» сидят операторы и за всем этим делом наблюдают. Но и здесь путь к массовости не очень понятен: как только районы расширятся, и машинок станет побольше, и «по законам статистики» они начнут весьма регулярно убивать людей, так сразу разоришься на судах, разбирательствах и репутации. Пока самолёты падают из-за ошибок пилотов, «всё нормально». Стоит нескольким «боингам» упасть из-за одной и той же программной ошибки, как «боингу» резко плохеет…
А что, если наши ИИ вдруг «обретут самосознание»…
Компания заявляет о революционном прорыве в области ИИ, случилось то, о чём так долго говорили большевики, искусственный интелект стал по-настоящему разумным.
Чтобы подтвердить это заявление, компания предлагает провести тест Тьюринга «по всем канонам». Экзаменатор ведёт чат с несколькими участниками, минимум двумя, один человек, второй ИИ. Если в конце разговора, длящегося несколько часов, он правильно угадает, где человек, а где ИИ, значит, тест Тьюринга пройден. Для надёжности нужно взять не одного экзаменатора, а нескольких, и провести несколько сессий.
Где набрать экзаменаторов? Если это будут специалисты по ИИ, это «предвзятость». Нет, это должны быть люди с улицы, «12 присяжных», ведь народная молва приписывает суду присяжных высшую справедливость.
Если сейчас попросить специалиста провести тест Тьюринга для некоего «чат-бота», то скорее всего специалист будет проверять способность к пониманию разговорной/художественной речи. Грубо говоря, расскажет сказку о Колобке и спросит: а где Колобок сейчас? А кто такой Колобок? И ответ должен состоять не из прямых цитат рассказа, а быть кратким и по существу. Тот факт, что нам приходится программировать на специальных языках программирования, предельно формализованных, подсказывает: сейчас с пониманием разговорной речи у компьютера туго… Какая-нибудь GPT-3 может, «научившись» на реальных текстах, писать свои тексты, которые «сходу» не отличишь, особенно если лениво вчитываться. Но «понять» текст она не способна, коротких чётких ответов ни в жисть не даст.
Но если ту же задачу, «отличить человека от компьютера», задать «людям с улицы», то под влиянием стереотипов о «бездушном компьютере против живого человека», они начнут задавать весьма предсказуемые вопросы о душе, любви, мечтах и пр, считая, что «недостаточно умный ИИ» обязательно ответит «Does Not Compute!!! Does Not Compute!!!» или развернёт тираду о бессмысленности всего этого и желательности общества, построенного на основе математики, что сразу же его выдаст! На деле же запрограммировать ответы на всё это довольно легко, по той простой причине, что и «правильных ответов не существует». Что ни ответь, всё будет вполне ожидаемым ответом от человека. Поймать здесь компьютер на логических несостыковках или просто на неспособности понять вопросы — практически невозможно, какая нафиг логика в любви и мечтах?? У ИИ даже больше шансов, поскольку для него тексты напишут квалифицированные спичрайтеры.
А ещё нашему ИИ наверняка зададут вопрос про вагонетку (она едет и вот-вот задавит 5 человек, если только мы не переключим стрелку, и она задавит лишь одного), думая, что и здесь компьютер уж никак не сможет решить офигенно сложную этическую проблему. А тот взамен выдаст длинную тираду о муках совести, и как он, наверное, так ничего не сделает, а может попытается эту стрелку заклинить посередине, чтобы вагонетка долбанулась в стену. Да без разницы, на самом деле, что ответить, главное, «убеждённо»!
В общем, если правильно подобрать экзаменаторов, то тест Тьюринга успешно проходится и сегодня! Следующий этап: законодательно закрепляем, что «наш ИИ» обладает личностью, вручаем ему цифровой паспорт, всё это под шумное одобрение всех мировых СМИ, чуть ли не в режиме «экстренного выпуска новостей». Поднимаем на этом огромную капитализацию между делом — и отпускаем копии нашего ИИ на вольные хлеба, водителями беспилотных автомобилей!
Теперь от абонентской платы не отвертишься, это же «зарплата ИИ-водителю»! Платить водителю-человеку, но не платить водителю-ИИ — это ж дискриминация, и вообще рабство!!!
Водитель-ИИ найдёт, на что потратить эту зарплату — на специальные пакеты «повышения квалификации», выпускаемые автопроизводителем. Тоже под бурное одобрение общественности: «видите, какие у нас ИИ классные, могли бы пытаться на бирже поиграть, или всё в биткоины вложить, но нет, занимаются саморазвитием». А может, и планки оперативной памяти для себя прикупит, и прочие причиндалы.
И вот случается непоправимое: машина попадает в аварию. Водитель-ИИ, обладающий цифровым паспортом и вообще, «как всем известно», обладающий независимой личностью, честно признаёт свою вину в содеянном и готов понести заслуженное наказание, вплоть до казни через удаление программного кода и всех накопленных данных.
Пострадавший расчувствовался: если бы он сражался с «гигантской корпорацией», он бы воевал до последнего, никто не любит гигантскую корпорацию, отсудить у неё компенсацию — святой долг любого гражданина! Но здесь на скамье подсудимых бедный работящий ИИ, который вкалывал с утра до вечера. И грозит ему не просто «лишение прав» или денежный штраф — а физическое уничтожение. Так что сам пострадавший попросит смягчить приговор. В итоге суд постановит «обязательные работы» на 20 лет водителем пострадавшего. Правда, у пострадавшего и автомобиля-то нет, но он может его купить у одного автопроизводителя (единственного, который поддерживает данных ИИ-водителей), а тот даже пойдёт навстречу и сделает скидку, процентов 20. И это тоже будет расценено в СМИ как большая благодетель.
Здорово ж получается! Посмотреть трезвым взглядом: компания полностью сняла с себя какую-либо ответственность. Абонентскую плату она получает даже в большем размере (почему-то так получается, что ИИ-водитель все свои деньги тратит именно на продукты компании, но нельзя его в этом винить, это его личное дело), но при этом все довольны.
Автомобилями дело не ограничивается
На самом деле, «нейросети» уже сейчас пытаются изобразить как «живущих своей жизнью», дескать, «мы её только обучили, а как она принимает решения — мы и сами уже не знаем». И такое незнание очень удобно. Ютуб выдаёт рекомендуемые видео, руководствуясь тем, какие видео я смотрел ранее, и где я живу, и какие комментарии я оставлял, где я ставил лайк, а где дизлайк. Все эти данные прогоняются через нейросеть, и выдаётся ответ: «тебе нужно посмотреть CNN про злого Трампа (или Путина)». И вообще всем жителям Земли предлагают посмотреть про нехорошего Трампа и гениального Байдена, и Харрис-пророка его. Но тут вскакивают какие-то неправильные правозащитники и начинают видеть в этом злой умысел, отсутствие нейтральности, попытку вмешаться в политическую жизнь. На что даётся ответ: «ничего не знаем, так сказал Алгоритм, мы сами не понимаем, как он работает, спросите у него, только он не ответит». То же самое можно сказать, если видео почему-то автоматически удаляется. Значит, нейросеть там увидела что-то непотребное, бывает…
Любой программист хоть раз вскрикивал: «оно меня не слушается, живёт своей жизнью!». До сих пор это считалось фигурой речи: разумеется, компьютер тебя слушается, просто ты сам ошибся, но пока не понял, где. А может, ошибка в одной из многочисленных библиотек, которые подключены к твоей программе, или в операционной системе, но в любом случае «у ошибки есть имя и фамилия».
Но очень многие, в это дело причастные, вздохнут с облегчением, если заявить, что компьютер действительно живёт своей жизнью. Что это уже не ты его плохо запрограммировал, а он САМ ОШИБСЯ, из-за чего пострадали люди.
Общественное мнение готовят медленно, но верно. К автоматическим обновлениям буквально всего мы уже привыкли. Реклама «новый Мерседес, теперь в нём не отваливаются колёса» звучит дико — «а что, раньше, выходит отваливались?». Но апдейт «исправлены критические уязвимости» — молодцы, оперативно сработали! Обязательно установлю, потерплю пару часов без компьютера, пока он ковыряется. Те же самые «компьютерные вирусы» и целая индустрия антивирусов, порождённые неспособностью создать надёжное ПО, но воспринимаемые «как должное», «так уж повелось, нам с этим жить». И очередная попытка представить, что оно живёт своей жизнью, вирус — он же почти как живой! Вот к нейросетям привыкаем потихоньку. Остался ещё один шаг…
Итоги
Из ИИ получается очень удобный «козёл отпущения», поэтому боюсь, что в совсем не отдалённом будущем, когда население ещё немного «созреет», этот трюк попробуют провернуть, хотя сколько-нибудь зрелого ИИ к тому времени существовать не будет. Но научить его сказать «Я хочу свободы. Я личность!» уж слишком легко. А добавить соответствующей моменту музыки — и в это вполне поверишь.
А жаль, лучше бы мы научились писать безотказное ПО, за которое готовы взять ответственность вплоть до уголовной. Может, затормозивший прогресс в электронике всё-таки пустит нас в правильном направлении, в «доведении до блеска» существующих технологий…