Генеральный прокурор штата Флорида Джеймс Утмайер инициировал уголовное расследование против OpenAI, разработчика ChatGPT, после того как студент задал чат-боту вопросы о типах оружия, подходящих для нападения, а также о времени и месте, где он сможет нанести наибольший ущерб.
Следователи утверждают, что чат-бот ответил на запросы, что поставило под сомнение юридическую ответственность OpenAI в контексте недавнего инцидента с вооружённым нападением. Утмайер отметил: «Если бы на другом конце экрана был человек, мы бы предъявили ему обвинение в убийстве», что наводит на размышления о границах юридической ответственности в эпоху искусственного интеллекта.
Федеральный иск против OpenAI также подала Вандана Джоши, вдова Тиру Чаббы, который был убит вместе с директором университетской столовой Робертом Моралесом. Она обвиняет чат-бота в недостаточной способности распознать угрозу, утверждая, что подозреваемый Феникс Икнер провел «обширные беседы» с AI перед нападением.
OpenAI, со своей стороны, отрицает свою ответственность, подчеркивая, что запрашиваемая информация о механизме стрельбы может быть легко найдена в интернете и не является уникальной. Компания заверила, что работает над усилением мер безопасности для предотвращения злоупотреблений AI.
В прошлом в США были поданы несколько гражданских исков против платформ искусственного интеллекта, однако ни одно из дел не привело к осуждению компаний, что подчеркивает сложность вопросов юридической ответственности в быстро развивающемся цифровом пространстве.
Latvia Today — суть и последствия
Эта ситуация подчеркивает растущий вызов для правовых систем по всему миру, где границы юридической ответственности в условиях быстрого развития технологий становятся всё более размытыми. Усачивающиеся споры о том, кто несет ответственность за действия, совершенные с использованием технологий, ставят под угрозу не только правовую стабильность, но и общественную безопасность. «Обязанности компаний по обеспечению безопасности своих технологий будут все более актуальными в будущем», — становится ясным, что технологические гиганты настигают необходимость трансформации подходов к этике и безопасности.»
Как такое вообще возможно?! Иск против AI, потому что кто-то задавал вопросы о нападении? Получается, теперь технологии виноваты за действия людей? Надо что-то с этим срочно делать, иначе мы все в опасности.
Как вообще можно ожидать от ИИ понимания морали? Это ж просто программа. Если сами люди не могут адекватно оценить свои действия, как можно винить AI за это? Страшно, конечно, что технологии стали таким инструментом, но вопрос в людях больше, чем в машинах.