Google introduserer ny teknologi for å flagge KI-genererte bilder
Google har nylig annonsert en spennende nyhet som vil gjøre det enklere for brukere å skille mellom ekte og KI-genererte bilder. Innen Google Search og Google Ads vil de snart begynne å vise brukere om bildene de ser på er autentiske eller produsert av kunstig intelligens. Dette skal skje ved hjelp av C2PA’s autentiseringsstandard, som vil flagge hvor bildet opprinnelig kommer fra.
Den nye teknologien vil kunne identifisere om et bilde ble tatt med et kamera, redigert i programvare som Photoshop, eller om det er generert av KI-modeller. Denne informasjonen vil være tilgjengelig under "Om dette bildet"-seksjonen i Google Search, slik at brukerne får innsikt i bildets opprinnelse og kan vurdere om det er ekte eller fabrikkert.
Hvorfor er denne endringen viktig?
Dette tiltaket er spesielt viktig i dagens digitale landskap, der Deepfakes og KI-genererte bilder har blitt stadig mer utbredt. Mange brukere sliter med å avgjøre om det de ser på nettet er reelt, eller om det er et resultat av avansert teknologi som manipulerer virkeligheten. Linjene mellom fantasi og virkelighet har blitt stadig mer uklare, som ofte fører til diskusjoner i kommentarfelt på sosiale medier om troverdigheten til innholdet.
Med en teknologi som automatisk flagger fabrikerte bilder, vil mye av denne forvirringen kunne reduseres. Det er et viktig skritt mot større åpenhet og tillit på nett, og kan hjelpe brukerne med å ta bedre informerte beslutninger om hva de velger å stole på.
I en tid der digitale bilder kan være like falske som ekte, er Googles initiativ en milepæl for både brukere og innholdsprodusenter. Ved å gjøre denne informasjonen lett tilgjengelig vil det ikke bare øke brukernes bevissthet, men også bidra til å hindre spredning av villedende innhold.
Dette er et spennende skritt fremover som jeg håper vil gjøre internett til et tryggere sted for alle.