Meta rozwija swoje inteligentne okulary Meta Ray-Ban
W ostatnim czasie dużo się mówi o imponującym prototypie okularów AR Meta Orion, ale nie ma co się spodziewać, że ich konsumencka wersja pojawi się na rynku w najbliższym czasie. Nie ma co się jednak załamywać, ponieważ gigant i tak szykuje rewolucję AR w przyszłym roku, choć zrobi to za pośrednictwem nowych inteligentnych okularów Meta Ray-Ban, które, jak twierdzi Wall Street Journal, mają zadebiutować z „pojedynczym małym ekranem w soczewce”. Raport powołuje się na „osobę zaznajomioną z projektem”, twierdząc, że kolejna generacja okularów pojawi się w 2025 roku, równocześnie z opaską sensoryczną, której pierwsi testerzy używali do sterowania Orionem.
Czytaj też: Użytkownicy Edge zagrożeni przez 4 poważne luki w zabezpieczeniach
W raporcie dodano, że chociaż Meta nie potwierdziła, czy funkcja takiego wyświetlacza faktycznie będzie dostępna, to według Alexa Himela, wiceprezesa działu urządzeń ubieralnych w Meta, mały panel, który mógłby wyświetlać podstawowe informacje, takie jak powiadomienia, był bardzo oczekiwaną funkcją. Co prawda nie jest to pierwszy raz, kiedy słyszymy o takim ulepszeniu, bo podobne plotki pojawiały się już w zeszłym roku, ale warto pamiętać, że wówczas też wskazywano na 2025 rok, jako przewidywany termin premiery.
Czytaj też: Przełomowe wyniki w walce ze spamem. Gmail zaskakuje skutecznością
Na tym jeszcze nie koniec, ponieważ inteligentne okulary Meta Ray-Ban zyskają też kilka udoskonaleń opartych na sztucznej inteligencji, choć w tym wypadku nie trzeba będzie czekać na następną generację. Posiadacze tych urządzeń z USA i Kanady, zarejestrowani w programie testów wczesnego dostępu, mogą już pobrać oprogramowanie układowe v11, które dodaje „Live AI”. Nowy algorytm sztucznej inteligencji pozwala użytkownikom na ciągłą konwersację z asystentem AI Meta, Meta AI, aby odwoływać się do rzeczy, które omawiali wcześniej w rozmowie. Bez konieczności wypowiadania słowa „Hej, Meta” użytkownicy mogą przerwać Meta AI, aby zadać dodatkowe pytania lub zmienić temat.
Czytaj też: OnePlus Watch 3 – lepsza bateria to tylko jedna z nowości, jaka się pojawi
Live AI działa również z wideo w czasie rzeczywistym. Użytkownicy mogą zadawać pytania o to, co widzą w czasie rzeczywistym — na przykład, co znajduje się w ich otoczeniu. Dzięki poniedziałkowej aktualizacji Meta staje się jednym z pierwszych gigantów technologicznych, który wprowadza na rynek wideo AI w czasie rzeczywistym na swoich inteligentnych okularach. Google dał ostatnio znać, że też zamierza wprowadzić do oferty okulary AR z takimi funkcjami, ale trudno powiedzieć, kiedy się to stanie. Podobne plany ma też Samsung.
Czytaj też: OnePlus Open 2 z wieloma ulepszeniami, ale na premierę trochę jeszcze poczekamy
Oprogramowanie układowe v11 wprowadza również tłumaczenie na żywo, które umożliwia użytkownikom tłumaczenie mowy w czasie rzeczywistym z angielskiego na hiszpański, francuski lub włoski. Kiedy użytkownik rozmawia z kimś mówiącym w jednym z tych języków, usłyszymy, co mówi rozmówca po angielsku za pośrednictwem głośniki okularów, a dodatkowo na sparowanym telefonie pojawi się transkrypcja całej rozmowy. Aktualizacja wprowadza też wsparcie dla Shazam – wystarczy powiedzieć “Hey, Meta, Shazam this song”, by okulary mogły spróbować odnaleźć odtwarzany utwór. Meta jednak zaznacza, że nowości mogą nie działać jeszcze w pełni poprawnie. „Ciągle uczymy się, co działa najlepiej i ulepszamy doświadczenie dla wszystkich” – napisała firma we wpisie na blogu.