November 10, 2024

„Google Lens“ leis išmaniųjų telefonų kameroms suprasti, ką jie mato, ir imtis veiksmų – „TechCrunch“

„Google“ I / O kūrėjų konferencijoje generalinis direktorius Sundaras Pichai paskelbė apie naują technologiją, vadinamą „Google Lens“. Šio produkto idėja yra panaudoti „Google“ kompiuterio viziją ir dirbtinio intelekto technologijas, kad išmanieji telefonai patektų tiesiai į jūsų telefono kamerą. Kaip įmonė paaiškina, išmaniojo telefono kamera ne tik matys tai, ką matote, bet ir supras tai, ką matote, kad padėtų jums imtis veiksmų.

Demonstracijos metu „Google“ parodė, kaip galėtumėte nukreipti fotoaparatą į ką nors, o „Lens“ pasako, kas tai yra – jis gali atpažinti gėlę, kurią ruošiatės šaudyti.

Kitame pavyzdyje „Pichai“ parodė, kaip „Lens“ galėtų atlikti įprastą užduotį – prijungti jus prie namų „Wi-Fi“ tinklo, ant maršruto parinktuvo užfiksavus lipduko nuotrauką.

Tokiu atveju „Google Lens“ gali nustatyti, kad žiūri į tinklo pavadinimą ir slaptažodį, tada pasiūlyti galimybę paliesti mygtuką ir prisijungti automatiškai.

Trečias pavyzdys buvo įmonės vitrinos nuotrauka – o „Google Lens“ galėjo pavardę, įvertinimą ir kitą įmonių sąrašo informaciją pažymėti kortelėje, kuri atsirado virš nuotraukos.

Ši technologija iš esmės paverčia fotoaparatą iš pasyvaus įrankio, kuris užfiksuoja aplinkinį pasaulį, į tą, kuris leidžia jums bendrauti su tuo, kas yra jūsų fotoaparato ieškiklyje.

Vėliau, per „Google Home“ demonstraciją, įmonė parodė, kaip „Lens“ bus integruota į „Google Assistant“. Naudodami naują mygtuką „Assistant“ programoje, vartotojai galės paleisti „Lens“ ir įterpti nuotrauką į pokalbį su „Assistant“, kur jis galės apdoroti nuotraukoje esančius duomenis.

Norėdami parodyti, kaip tai galėtų veikti, „Google“ Scottas Huffmanas laiko savo fotoaparatą iki „Stone Foxes“ pasirodymo koncertų salės, o „Google“ padėjėjas renka informaciją apie bilietų pardavimą. „Įtraukite tai į mano kalendorių“, – sako jis.

„Lens“ integravimas į „Assistant“ taip pat gali padėti atlikti vertimus.

Huffmanas tai įrodo, laikydamas fotoaparatą prie japonų kalbos ženklo, paliesdamas „Lens“ piktogramą ir sakydamas „Ką tai sako?“ Tada „Google“ padėjėjas verčia tekstą.

Be to, „Pichai“ parodė, kaip „Google“ algoritmai galėtų apskritai išvalyti ir patobulinti nuotraukas, pavyzdžiui, kai fotografuojate savo vaiko beisbolo žaidimą per grandinės grandinę, „Google“ galėtų automatiškai pašalinti tvorą iš nuotraukos. Arba, jei fotografavote prasto apšvietimo sąlygomis, „Google“ galėtų automatiškai patobulinti nuotrauką, kad ji būtų mažiau pikselių ir neryški.

Kompanija nepranešė, kada bus galima įsigyti „Google Lens“, tik pasakė, kad ji atvyks „netrukus“.

Parašykite komentarą

El. pašto adresas nebus skelbiamas. Būtini laukeliai pažymėti *

Previous post „Apple“ įsilaužėme 3 mėnesius: štai ką radome
Next post Atsiprašau už mūsų pertraukimą