OpenAI сформировала группу для оценки катастрофических рисков от ИИ
Mariia Shalabaieva/Unsplash
Компания OpenAI объявила о создании новой команды, которая будет заниматься снижением потенциально опасных рисков, связанных с искусственным интеллектом.
Что известно
Группа по обеспечению готовности будет отслеживать, оценивать и предотвращать серьезные проблемы, которые может вызвать ИИ. В том числе речь идет о ядерных угрозах, биологическом оружии, обмане людей и кибератаках.
OpenAI отмечает, что новая команда будет разрабатывать политики развития ИИ с учетом рисков. Руководителем группы назначили Александра Мадри (Aleksander Madry), эксперта MIT по машинному обучению.
По мнению OpenAI, передовые модели ИИ могут принести пользу, но также несут возрастающие риски. Ранее глава компании Сэм Альтман (Sam Altman) предупреждал о возможных катастрофических последствиях ИИ и призывал правительства относиться к этой технологии так же серьезно, как к ядерной.
Источник: OpenAI