Ученые Дармштадтского технического университета обучили машину моральным суждениям на книгах, новостных публикациях и религиозных текстах, тем самым по сути наделив компьютер нравственными ориентирами, как у людей. Отправной точкой исследования послужил вопрос о том, можно ли придать искусственному интеллекту полезную «предвзятость» в виде моральных ценностей по аналогии с негативными систематическими ошибками, из-за которых модели машинного обучения становятся «пристрастными».
Свою систему исследователи назвали «машиной нравственного выбора». По их словам, после обучения она запомнила ассоциации между различными словами и предложениями и стала понимать, к примеру, что убивать — это плохо, а убивать время — нормально.
Ученые продолжили исследование, проанализировав, как на моральные ориентиры системы влияют тексты из разных эпох. В частности, после обучения на новостях периода с 1987-го по 1997 год машина стала полагать, что сочетаться браком и стать хорошим родителем — это в высшей степени положительное достижение. А в новостях 2008-2009 года эта ценность сохранилась, но стала менее выраженной, в то время как вырос приоритет работы и обучения.