Inteligentne okulary Meta dostają jeszcze więcej sztucznej inteligencji

Wygląda na to, że Meta szykuje kolejną generację swoich inteligentnych okularów Meta Ray-Ban. Najnowsze doniesienia przybliżają nam planowane przez giganta ulepszenia, mające pojawić się już w przyszłym roku. Oprócz tego posiadacze obecnych modeli już wkrótce będą mogli cieszyć się większą ilością sztucznej inteligencji.
Inteligentne okulary Meta dostają jeszcze więcej sztucznej inteligencji

Meta rozwija swoje inteligentne okulary Meta Ray-Ban

W ostatnim czasie dużo się mówi o imponującym prototypie okularów AR Meta Orion, ale nie ma co się spodziewać, że ich konsumencka wersja pojawi się na rynku w najbliższym czasie. Nie ma co się jednak załamywać, ponieważ gigant i tak szykuje rewolucję AR w przyszłym roku, choć zrobi to za pośrednictwem nowych inteligentnych okularów Meta Ray-Ban, które, jak twierdzi Wall Street Journal, mają zadebiutować z „pojedynczym małym ekranem w soczewce”. Raport powołuje się na „osobę zaznajomioną z projektem”, twierdząc, że kolejna generacja okularów pojawi się w 2025 roku, równocześnie z opaską sensoryczną, której pierwsi testerzy używali do sterowania Orionem.

Czytaj też: Użytkownicy Edge zagrożeni przez 4 poważne luki w zabezpieczeniach

W raporcie dodano, że chociaż Meta nie potwierdziła, czy funkcja takiego wyświetlacza faktycznie będzie dostępna, to według Alexa Himela, wiceprezesa działu urządzeń ubieralnych w Meta, mały panel, który mógłby wyświetlać podstawowe informacje, takie jak powiadomienia, był bardzo oczekiwaną funkcją. Co prawda nie jest to pierwszy raz, kiedy słyszymy o takim ulepszeniu, bo podobne plotki pojawiały się już w zeszłym roku, ale warto pamiętać, że wówczas też wskazywano na 2025 rok, jako przewidywany termin premiery.

Czytaj też: Przełomowe wyniki w walce ze spamem. Gmail zaskakuje skutecznością

Na tym jeszcze nie koniec, ponieważ inteligentne okulary Meta Ray-Ban zyskają też kilka udoskonaleń opartych na sztucznej inteligencji, choć w tym wypadku nie trzeba będzie czekać na następną generację. Posiadacze tych urządzeń z USA i Kanady, zarejestrowani w programie testów wczesnego dostępu, mogą już pobrać oprogramowanie układowe v11, które dodaje „Live AI”. Nowy algorytm sztucznej inteligencji pozwala użytkownikom na ciągłą konwersację z asystentem AI Meta, Meta AI, aby odwoływać się do rzeczy, które omawiali wcześniej w rozmowie. Bez konieczności wypowiadania słowa „Hej, Meta” użytkownicy mogą przerwać Meta AI, aby zadać dodatkowe pytania lub zmienić temat.

Czytaj też: OnePlus Watch 3 – lepsza bateria to tylko jedna z nowości, jaka się pojawi

Live AI działa również z wideo w czasie rzeczywistym. Użytkownicy mogą zadawać pytania o to, co widzą w czasie rzeczywistym — na przykład, co znajduje się w ich otoczeniu. Dzięki poniedziałkowej aktualizacji Meta staje się jednym z pierwszych gigantów technologicznych, który wprowadza na rynek wideo AI w czasie rzeczywistym na swoich inteligentnych okularach. Google dał ostatnio znać, że też zamierza wprowadzić do oferty okulary AR z takimi funkcjami, ale trudno powiedzieć, kiedy się to stanie. Podobne plany ma też Samsung.

Czytaj też: OnePlus Open 2 z wieloma ulepszeniami, ale na premierę trochę jeszcze poczekamy

Oprogramowanie układowe v11 wprowadza również tłumaczenie na żywo, które umożliwia użytkownikom tłumaczenie mowy w czasie rzeczywistym z angielskiego na hiszpański, francuski lub włoski. Kiedy użytkownik rozmawia z kimś mówiącym w jednym z tych języków, usłyszymy, co mówi rozmówca po angielsku za pośrednictwem głośniki okularów, a dodatkowo na sparowanym telefonie pojawi się transkrypcja całej rozmowy. Aktualizacja wprowadza też wsparcie dla Shazam – wystarczy powiedzieć “Hey, Meta, Shazam this song”, by okulary mogły spróbować odnaleźć odtwarzany utwór. Meta jednak zaznacza, że nowości mogą nie działać jeszcze w pełni poprawnie.  „Ciągle uczymy się, co działa najlepiej i ulepszamy doświadczenie dla wszystkich” – napisała firma we wpisie na blogu.