Sadržaj:
- Tako funkcionira Googleov algoritam
- Automatska korekcija uzimajući u obzir kontekst
- Možda ćemo ovu tehnologiju vidjeti u Pixelu
Istraživači iz Googlea i MIT-a razvili su algoritam kojim se nastoje ispraviti nedostaci širokokutnih snimaka.
Možda ste vidjeli da lica nekih ljudi na fotografijama izgledaju razvučeno, blago spljošteno ili iskrivljeno. Iako je to možda posljedica malobrojnih vještina fotografa, istina je da snimke širokokutnim objektivom s mobilnih uređaja obično uzrokuju iskrivljenje predmeta ili ljudi koji se nalaze na rubu slike.
Postoje različite metode koje pokušavaju riješiti ovaj problem, ali do sada nijedna nije bila toliko učinkovita kao Googleov prijedlog. Iako se čini lako popraviti, nije, jer zahtijeva složeno lokalno uređivanje koje ne utječe na ostatak objekata na fotografiji.
Tako funkcionira Googleov algoritam
Kao što istraživači objašnjavaju, ovaj algoritam otkriva lica i stvara mrežu koja omogućuje automatsko preokretanje ove vrste izobličenja prilikom snimanja širokog kuta kao što je prikazano na slici:
Razliku možemo primijeniti prilikom primjene ovog algoritma na sljedećim slikama. Riječ je o selfiju snimljenom širokokutnom lećom s vidnim poljem od 97 °.
Prva slika prikazuje izobličenja na licima, a druga prikazuje kako je algoritam vratio oblike lica u prvobitno stanje.
Odnosno, ovaj se postupak automatski aktivira kada se koristi širokokutna leća, pružajući ovu posebnu pomoć licima, ali bez promjene na ostatku slike. I naravno, brzina ove automatske korekcije (oko 920 milisekundi) onemogućuje korisnicima otkrivanje.
Prema testovima koje su proveli, ovaj algoritam uspješno radi u rasponu od 70 ° do 120 ° u vidnom polju, pokrivajući gotovo sve mogućnosti mobilnog uređaja.
Da bi iskoristio potencijal ovog algoritma, korisnik ne bi trebao poduzimati nikakve radnje ili aktivirati bilo koji poseban način kamere. Ova bi se funkcija primijenila automatski samo kad otkrije da se koristi širokokutna leća.
Automatska korekcija uzimajući u obzir kontekst
Dinamiku ovog algoritma možemo vidjeti u sljedećem videu:
Algoritam automatski ispravlja uzimajući u obzir ostatak objekata koji se pojavljuju na sceni, osiguravajući da se cijeli kontekst fotografije podudara. Rezultati su prirodni, bez detalja koji pokazuju da je fotografija uopće modificirana.
Tim koji stoji iza ovog projekta podijelio je fotogaleriju na Flickru koja pokazuje kako se različite metode rješavaju ovaj problem u usporedbi s dinamikom njihovog algoritma. Postoji više od 160 fotografija (poput one koju vidite na početku članka) koje nam pomažu u procjeni rezultata.
Možda ćemo ovu tehnologiju vidjeti u Pixelu
Mogli bismo se nadati da će se ovaj algoritam ili neka izvedena tehnologija primijeniti u sljedećoj generaciji Pixela, budući da je tim koji sudjeluje u ovom projektu zaposlenici Googlea.
Međutim, u dokumentu koji su podijelili nisu o tome ništa spomenuli. Ovi prvi testovi algoritma na djelu uspješno su pokazali još jednom kako potencijal umjetne inteligencije može poboljšati dinamiku mobilnih uređaja i olakšati život korisnicima.
Budući da bi bez sumnje, slična dinamika na našem mobilnom uređaju uštedjela puno glavobolje i vremena pokušavajući urediti ta izobličenja na fotografijama.
