OpenAI har opprettet et team som skal innlemme publikums ideer i forvaltningen av AI-modeller.
Mariia Shalabaieva/Unsplash
OpenAI kunngjorde opprettelsen av en ny forskningsgruppe, Collective Alignment, som skal utvikle et system for å samle inn og ta hensyn til den offentlige opinionen når de tar beslutninger om hvordan selskapets modeller for kunstig intelligens skal oppføre seg.
Dette er hva vi vet
Ifølge utviklerne skal Collective Alignment sikre at fremtidige AI-modeller er i tråd med samfunnets verdier og forventninger.
Opprettelsen av teamet var et resultat av et stipendprogram som ble lansert i fjor, og som finansierte eksperimenter for å innføre offentlig kontroll og "demokratiske prosesser" i styringen av AI-systemer.
OpenAI publiserer nå koden og resultatene av stipendiatenes arbeid. I fremtiden vil Collective Alignment-teamet integrere lovende prototyper i selskapets produkter og tjenester.
Utviklerne hevder at initiativet er utformet for å gjøre OpenAI AI så nyttig og trygg for samfunnet som mulig. Noen eksperter påpeker imidlertid at selskapet har kommersielle interesser og risikerer å drive lobbyvirksomhet for å påvirke regelverket.
Kilde: OpenAI