Исследователи Массачусетского технологического института (MIT) запустили проект, который должен снизить ошибки, что может допускать ИИ. Об этом сообщает MIT News.
Согласно имеющейся информации, стартап Themis AI должен научить нейросети тому, что порой удается даже не всем людям – признавать свои ошибки. Также платформа Capsa должна научить ИИ сомневаться в своей правоте.
Теоретически, наличие сомнений – одно из тех свойств мышления, которое позволяет получить истинную информацию. Впрочем, искусственный интеллект данным свойством пока не обладает.
Как отмечалось ранее, в ряде случаев нейросети способны дать «абсолютно точный, но абсолютно бесполезный» ответ. И если в случае вопросов об уже известных вещах это не столь критично, поскольку данные можно перепроверить, то в ситуациях, когда ИИ используется для разработки чего-то нового (например, при написании программного кода или создании лекарственных препаратов) ошибки могут иметь самые разные негативные последствия и в лучшем случае конечный продукт окажется бесполезен и неработоспособен.
Стоит отметить, что иногда у чат-ботов бывают сбои, которые в Google назвали «галлюцинациями».
Речь идет о случаях, когда чат-боты дают неправильные ответы, причем их поведение в этот момент действительно напоминает ход мыслей психически нездорового человека. В частности, оно напоминает шизофрению или бредовое расстройство, при которых человек (а в данном случае ИИ) верит в то, что говорит или думает. Причем, в отличие от случаев софистики, говорящий не пытается ввести кого-либо в заблуждение, а строит ложные выводы абсолютно искренне, поскольку в его представлении это абсолютно логично.
Подобные ошибки в деятельности искусственного интеллекта выглядят не менее любопытно, чем «успехи» нейросетей. Все-таки проявление «психических отклонений» у машины ставит под вопрос «искусственность» машинного интеллекта.