גוגל (Google) חשפה אתמול במהלך כנס I/O 217 כי היא עובדת על אלגוריתם למידת מכונה חדש בשם Google Lens, שאמור להחליף את ה-Google Goggles בזיהוי ואיתור אובייקטים במציאות, בשילוב עם אלמנטים של מציאות רבודה.
כך למשל, ניתן יהיה להפנות את מצלמת הטלפון כלפי אובייקטים מסביב, ושירות Google Lens יוכל לא רק לזהות אותם (כולל, אגב, עשרות אלפי פרצופים של ידוענים מרחבי העולם), אלא גם להציע למשתמש לבצע פעולות נוספות באמצעות שירותי גוגל השונים, כמו למשל חיפוש בגוגל של פריטים דומים, או מציאת מסעדות קרובות באמצעות גוגל מפות אשר מגישות את המנה שהמשתמש מצלם.
With Google Lens, your smartphone camera won’t just see what you see, but will also understand what you see to help you take action. #io17 pic.twitter.com/viOmWFjqk1
— Google (@Google) May 17, 2017
בנוסף, כפי שהודגם בכנס, ניתן יהיה להשתמש ב-Google Lens כדי לייצר חוויות משתמש אישיות – כמו למשל פחית קוקה קולה שהופכת למותאמת אישית כאשר מביטים בה מבעד למצלמה. דוגמאות נוספות ושאפתניות במיוחד שהוצג הן תרגום בזמן אמת של שלטי רחוב מיפנית, זיהוי מאכלים שאינם מוכרים, או חיבור לרשת ה-Wi-Fi באמצעות הפניית המצלמה כלפי הראוטר.
אלגוריתם Google Lens ישולב בשלב הראשון בתוך ה-Google Assistant, כדי לייצר דו שיח בין המשתמש לעוזרת באמצעות הקשרים ויזואליים ולמידת מכונה. בהמשך השנה יהיה אפשר להשתמש גם בשילוב אפליקציית Google Photos, כדי לזהות אובייקטים ועצמים שכבר צולמו בעבר באלבום, ולא רק באמצעות הפעלת המצלמה בלייב.
השקת האלגוריתם יתרחש בקרוב, ב-Google Assistant תחילה.