Le directeur de l'OpenAI a mis en garde contre les dangers des "préjugés sociétaux" dans l'adoption de l'IA.

Par: Bohdan Kaminskyi | 13.02.2024, 18:21
Le directeur de l'OpenAI a mis en garde contre les dangers des "préjugés sociétaux" dans l'adoption de l'IA.
Kamran Jebreili/AP Photo

Le PDG d'OpenAI, Sam Altman, a déclaré que le plus grand danger des applications de l'intelligence artificielle n'est pas celui des robots tueurs, mais celui des "subtiles distorsions sociétales" qui pourraient conduire les systèmes d'IA au chaos.

Ce que nous savons

S'exprimant lors du sommet de Dubaï, M. Altman a appelé à la création d'un organisme international chargé de réglementer le domaine de l'IA. Il a déclaré que le secteur était toujours en plein débat sur la voie à suivre, mais qu'il devait s'orienter vers un plan d'action concret dans les années à venir.

M. Altman a fait remarquer que les technologies d'IA actuelles, comme le ChatGPT, n'en sont qu'à leurs balbutiements. Toutefois, dans quelques années seulement, les progrès seront considérables.

Le PDG d'OpenAI a également salué le changement d'attitude à l'égard de l'IA dans l'éducation, qui est passée de la peur de l'utiliser pour tricher à la prise de conscience de l'importance de ces technologies.

Toutefois, la discussion n'a pas abordé les risques locaux liés à l'utilisation de l'IA, en particulier dans les Émirats arabes unis. Il s'agit notamment des restrictions à la liberté d'expression et des activités d'une entreprise locale, G42, soupçonnée d'espionnage et de liens avec la Chine, ce qui compromet la qualité des données d'entraînement pour les systèmes d'IA.

Source : TechXplore