Logo van Engadget

-Business

OpenAI lanceert transparantieportaal voor veiligheid AI-modellen

Copyright engadget
Foto: VandaagAI.nl

OpenAI heeft een nieuwe website gelanceerd waar het publiekelijk informatie deelt over de veiligheid en betrouwbaarheid van zijn AI-modellen, waaronder hallucinaties en schadelijke content.

In het kort:

Het nieuwe Safety Evaluations Hub moet zorgen voor meer transparantie rond OpenAI's modellen, met doorlopende updates over veiligheidsprestaties en gedrag van AI-systemen.

  • De hub toont testresultaten over hallucinaties, schadelijke content en hoe goed modellen instructies volgen
  • Het platform bouwt voort op de bestaande system cards die alleen veiligheidsmaatregelen bij lancering beschrijven
  • OpenAI wil hiermee bijdragen aan meer openheid in de hele AI-sector

De andere kant:

Critici plaatsen kanttekeningen bij de betrouwbaarheid van de gepubliceerde informatie, aangezien OpenAI zelf bepaalt welke testresultaten worden gedeeld.

  • OpenAI ligt onder vuur vanwege rechtszaken over auteursrechtenschending bij het trainen van modellen
  • The New York Times beschuldigt het bedrijf van het verwijderen van bewijsmateriaal in een plagiaatzaak
  • De gepubliceerde data vormt slechts een "snapshot" - voor volledig beeld moeten ook andere bronnen worden geraadpleegd

Vooruitkijkend:

OpenAI stelt dat het hub-initiatief onderdeel is van bredere inspanningen om proactiever te communiceren over veiligheid, terwijl de wetenschap rond AI-evaluatie zich verder ontwikkelt.

Bronnen

Het belangrijkste nieuws gratis in je mailbox

Elke week een korte e-mail met de meest relevante verhalen.

Bekijk ook