OpenAI heeft een team opgericht om de ideeën van het publiek te verwerken in het beheer van AI-modellen
Mariia Shalabaieva/Unsplash
OpenAI heeft de oprichting aangekondigd van een nieuwe onderzoeksgroep Collective Alignment, die een systeem zal ontwikkelen voor het verzamelen en meenemen van de publieke opinie bij het nemen van beslissingen over het gedrag van de kunstmatige intelligentiemodellen van het bedrijf.
Dit is wat we weten
Volgens de ontwikkelaars zal Collective Alignment ervoor zorgen dat toekomstige AI-modellen in lijn zijn met de waarden en verwachtingen van de samenleving.
De oprichting van het team was het resultaat van een vorig jaar gelanceerd subsidieprogramma dat experimenten financierde om publieke controle en "democratische processen" te introduceren in het beheer van AI-systemen.
OpenAI publiceert nu de code en resultaten van het werk van de bursalen. In de toekomst zal het Collective Alignment team veelbelovende prototypes integreren in de producten en diensten van het bedrijf.
De ontwikkelaars beweren dat het initiatief is ontworpen om OpenAI AI zo nuttig en veilig mogelijk te maken voor de maatschappij. Sommige experts wijzen echter op de aanwezigheid van commerciële belangen en de risico's van regelgevingslobby door het bedrijf.
Bron: OpenAI