In het kort:
Het nieuwe Safety Evaluations Hub moet zorgen voor meer transparantie rond OpenAI's modellen, met doorlopende updates over veiligheidsprestaties en gedrag van AI-systemen.
- De hub toont testresultaten over hallucinaties, schadelijke content en hoe goed modellen instructies volgen
- Het platform bouwt voort op de bestaande system cards die alleen veiligheidsmaatregelen bij lancering beschrijven
- OpenAI wil hiermee bijdragen aan meer openheid in de hele AI-sector
De andere kant:
Critici plaatsen kanttekeningen bij de betrouwbaarheid van de gepubliceerde informatie, aangezien OpenAI zelf bepaalt welke testresultaten worden gedeeld.
- OpenAI ligt onder vuur vanwege rechtszaken over auteursrechtenschending bij het trainen van modellen
- The New York Times beschuldigt het bedrijf van het verwijderen van bewijsmateriaal in een plagiaatzaak
- De gepubliceerde data vormt slechts een "snapshot" - voor volledig beeld moeten ook andere bronnen worden geraadpleegd
Vooruitkijkend:
OpenAI stelt dat het hub-initiatief onderdeel is van bredere inspanningen om proactiever te communiceren over veiligheid, terwijl de wetenschap rond AI-evaluatie zich verder ontwikkelt.