Текст: ГодЛитературы.РФ
Фото: кадр из фильма «Я, робот», 2004
Одна из основных трудностей, с которой сталкиваются ученые, работающие над созданием искусственного интеллекта, заключается в привитии роботам человеческих ценностей, таких как нормы морали, правила поведения в обществе, способность отличать добро от зла.
Исследователи из Технологического института в Атланте (США) Марк Ридл и Брент Харрисон опубликовали статью, в которой изложили механизмы влияния книг на обучение роботов нормам человеческого поведения. Ученые высказали гипотезу, согласно которой компьютер, обработавший достаточное количество литературных текстов и разобравшийся с зашифрованными в них социокультурными кодами, может, опираясь на эти знания, «поступать правильно».
Методика Ридла и Харрисона была названа «выравнивание ценностей» (value alignment). Ученые уверены, что ключ к определению этих ценностей как раз заключен в литературных произведениях. Согласно статье, сначала книги должны сформировать у роботов понимание обо всех возможных вариантах поведения. А после того, как база действий будет наработана, машины смогут самостоятельно выбирать то поведение, которое будет желательно и безопасно для человека.
Полный текст исследования (на английском) можно найти по ссылке.
Ссылки по теме:
Роботов в Перми программируют по Азимову — ГодЛитературы.РФ, 02.11.2015
Есть ли жизнь на Марсе? — ГодЛитературы.РФ, 03.04.2015






![В.С. Гроссман (12 декабря 1905, Бердичев – 14 сентября 1964, Москва) . [начало 1960-х], РГАЛИ В.С. Гроссман (12 декабря 1905, Бердичев – 14 сентября 1964, Москва) . [начало 1960-х], РГАЛИ](https://glstatic.rg.ru/crop286x180/uploads/images/2025/12/12/efesf_6a8.jpg)

