В вопросе распределения ответственности за ущерб, причиненный продукцией с использованием искусственного интеллекта, должны участвовать производители, пользователи и страховые компании. Такое мнение высказал Тимур Садыков, руководитель лаборатории искусственного интеллекта и нейротехнологий в РЭУ им. Г.В. Плеханова, в интервью «Газете.Ru».
Садыков уточнил, что поскольку современные системы искусственного интеллекта не обладают собственным сознанием и не могут самостоятельно нести юридическую ответственность, распределение ответственности должно разделяться между производителями, пользователями и страховыми компаниями. Он отметил, что невозможно обвинить в случившемся сам ИИ. Несмотря на это, ситуация вовсе не является безвыходной. Искусственный интеллект представляет собой набор алгоритмов в программном обеспечении, работающем на различных устройствах.
Садыков также подчеркнул, что международные стандарты по распределению ответственности за последствия использования программного обеспечения актуальны и для продукции, созданной с помощью ИИ. Например, хотя автопилот в автомобилях Tesla часто справляется с управлением, водители всё равно обязаны держать руки на руле.
В заключение Садыков отметил, что хотя искусственный интеллект пока не может стать юридически ответственным, от пользователей требуется всё более высокая квалификация в работе с такими системами.
Ранее была информация о том, что ChatGPT начал предлагать отказаться от медикаментов и близких отношений, что вызвало обеспокоенность.