Учёные из Германии и США после некоторых расчётов пришли к выводу, что контролировать «сверхчеловеческий» ИИ будет невозможно.
Утверждается, что для этого необходимо создать модель поведения робота и провести её анализ. Однако, считают исследователи, и это невозможно, даже если понять цели искусственного интеллекта и методы их достижения. Принципы вроде «не причинять вреда человеку» здесь неприменимы, так как сценарии, которые может разработать крайне развитый ИИ, непредсказуемы.
Плюс, снова встаёт проблема, озвученная когда-то Аланом Тьюрингом. Его тезис заключался в том, что невозможно заранее установить, завершит ли компьютерная программа свою работу с результатом или будет его искать бесконечно. Таким образом, человек не может быть уверен, завершит ли работу программа, написанная с целью предотвращения вреда, который робот в состоянии причинить миру.
Как итог, учёные предлагают ограничить возможности ИИ, отсоединив его от некоторых сегментов интернета или специфических сетей. Но это автоматически уменьшит потенциальную полезность ИИ, добавляют они. И ставят вопрос: если мы не собираемся использовать ИИ для решения задач, выходящих за рамки человеческих возможностей, тогда зачем нам его создавать?