De nieuwe tool van OpenAI herkent nep ai beelden, maar heeft een valstrik

OpenAI Dall-E 3 alpha test version image.

In de afgelopen maanden hebben de beelden van kunstmatige intelligentie (AI) veel paniek veroorzaakt, en het is begrijpelijk dat de beelden gebruikt zouden kunnen worden om desinformatie te verspreiden en het publiek te misleiden.Nu, chatgpt-fabrikant OpenAI is duidelijk het ontwikkelen van een tool die kan detecteren ai-gegenereerde beelden met een nauwkeurigheid van 99%.

Volgens bloomberg, OpenAI’s tool is gericht op het uitroeien van zelfgemaakte foto’s van gebruikers gemaakt door zijn eigen dall — e3 image generator.De tool is “99% betrouwbaar”, zei mira murati, cto van OpenAI, op de wall street journal Tech Live event.Hoewel de technologie intern getest wordt, is er nog geen releasedatum.
Als het zo accuraat is als OpenAI beweert, kan het mogelijk zijn om het publiek te laten weten dat ze beelden zien die ofwel echt zijn of door ai zijn gegenereerd.Echter, OpenAI lijkt niet te onthullen hoe deze tool zal waarschuwen voor ai beelden, met behulp van watermerken, tekst waarschuwingen of iets anders.
Het is belangrijk op te merken dat de tool is alleen bedoeld voor het detecteren van del-e beelden, en het kan niet ontdekken van vervalsers gegenereerd door concurrerende diensten zoals Midjourney, Stable Diffusion en Adobe Firefly.Dit kan het nut ervan in grote plannen beperken, maar alles wat valse beelden kan markeren kan een positief effect hebben.
OpenAI heeft in het verleden al een aantal tools gelanceerd, gericht op het ontdekken van content die wordt gecombineerd door zijn eigen chatbots en generatoren.Eerder in 2023 bracht het bedrijf een tool uit die beweerde dat ChatGPT teksten kon detecteren, maar een paar maanden later, toen OpenAI toegaf dat het erg onnauwkeurig was, werd de tool ingetrokken.

Naast de nieuwe image detection tool, OpenAI bespreekt de poging van het bedrijf om de “hallucinerende” neiging van ChatGPT te verminderen, namelijk onzin en het maken van informatie.”We hebben al veel vooruitgang geboekt met de illusie van gpt-4, maar we zijn nog niet zo ver als we nodig hebben,” zegt Murati. Dit toont aan dat het werk van gpt-5 goed vordert, een opvolger van het gpt-4 model dat ChatGPT ondersteunt.

Maart 2023, een groep van technologische leiders een open brief ondertekend, smeekte OpenAI die sterker is dan de GPT – 4 opschorting, anders riskeren “diepgaande risico van sociale en menselijke.Dit verzoek lijkt geen gehoor te vinden.

Het valt nog te bezien of de nieuwe tool van OpenAI effectiever zal zijn dan de vorige.Het laatste instrument werd geannuleerd wegens onbetrouwbaarheid.Het is zeker dat de ontwikkeling snel vordert, ondanks de duidelijke risico’s.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *