ცოცხალი თარგმანი შეიძლება მიუთითებდეს Apple-ის სათვალეების მომავალზე

Სარჩევი:

ცოცხალი თარგმანი შეიძლება მიუთითებდეს Apple-ის სათვალეების მომავალზე
ცოცხალი თარგმანი შეიძლება მიუთითებდეს Apple-ის სათვალეების მომავალზე
Anonim

მთავარი წაღებები

  • ხელმისაწვდომობის ახალი ფუნქციები მოიცავს რეალურ დროში გენერირებულ ცოცხალ სუბტიტრებს, ნებისმიერი ვიდეოსთვის ან საუბრისთვის.
  • თუ ეს ფუნქცია არ არის შექმნილი Apple-ის გავრცელებული AR სათვალეებისთვის, ჩვენ შევჭამთ ჩვენს ვირტუალურ emoji ქუდს.
  • Apple-ს აქვს მომავალი პროდუქტის ფუნქციების საცდელი ისტორია მიმდინარე მოწყობილობებში.
Image
Image

Apple-ის ახალი ცოცხალი სუბტიტრები ამატებს რეალურ დროში სუბტიტრებს ნებისმიერ რამეს, მათ შორის თქვენს წინ მდგომ ადამიანს.

ისევე, როგორც Google-ის კონცეფციის AR სათვალეები, გამოცხადებული ამ კვირაში. Apple-ის ლაივ სუბტიტრებს შეუძლია შემომავალი აუდიოს აღება და მყისიერად ტრანსკრიბცია. განსხვავება ისაა, რომ Apple-ის ვერსია გამოვა "ამ წლის ბოლოს", რაც, ალბათ, ნიშნავს, რომ ეს იქნება iOS 16-ის შემოდგომაზე. მაგრამ რეალური სიახლე აქ არის ის, რომ ეს არის Apple-ის ყველაზე აშკარა დარტყმა Apple Glasses-ის მომავალი ფუნქციების აშკარა დანახვაზე გამოცდაში.

"როგორც მას, ვისაც ჰყავს ორი მშობელი, რომლებსაც ორივეს სმენა უჭირთ, ეს დიდი დახმარებაა", - წერს Apple-ზე ორიენტირებული ჟურნალისტი დენ მორენი თავის პირად Six Colors ბლოგზე. "მაინტერესებს ვნახო, რამდენად კარგად მუშაობს ეს ფუნქცია და როგორ უმკლავდება FaceTime ზარს უამრავ მონაწილესთან; Apple ამბობს, რომ დიალოგს მიაწერს კონკრეტულ დინამიკებს."

ხელის ხედვა

ცოცხალი სუბტიტრები, რომლებსაც ერთ წამში შევეხებით, შორს არის პირველი AR სათვალეების ფუნქციისგან, რომელიც Apple-მა გამოსცადა. ყველაზე აშკარაა LIDAR კამერების ჩართვა iPhone-ებსა და iPad-ებში. ეს სკანერები ხელს უწყობს გარე სამყაროს ზუსტი 3D რუქის შექმნას და საშუალებას აძლევს iPhone-ს გადაფაროს 3D მოდელები რეალურ სამყაროზე, რომელიც ნაჩვენებია კამერით.

დარწმუნებული არ ვარ, რომ Apple-ის ცოცხალი თარგმანს უკეთ ვენდობით, ვიდრე Google-ის ახალ AR სათვალეებს, მაგრამ ვფიქრობ, შეგვიძლია გვჯეროდეს, რომ კონკურენცია ხელს შეუწყობს საუკეთესო შედეგების მიღწევას.

ჯერჯერობით, ეს ტექნოლოგია გამოიყენებოდა იმისათვის, რომ წინასწარ დაათვალიეროთ Apple-ის ახალი კომპიუტერები საკუთარ მაგიდაზე, ითამაშოთ AR Lego თამაშები, შეამოწმოთ IKEA ავეჯი თქვენს მისაღები ოთახში და ა.შ. LIDAR-ის აპარატურა იმდენად აბსურდულად ზედმეტია iPhone-ებში, რომ ის მხოლოდ იქ უნდა იყოს, რათა Apple-მა შეძლოს აპარატურა და პროგრამული უზრუნველყოფა რეალური AR აპლიკაციისთვის: Apple Glasses..

ეს არ არის მხოლოდ ვიზუალური AR. AirPods უკვე წლებია ამატებს AR ფუნქციებს. უახლესი, სივრცითი აუდიო, ატყუებს ჩვენს ტვინს, რომ იფიქროს, რომ ხმები მოდის ჩვენს ირგვლივ და შესანიშნავი საშუალებაა ფილმების საყურებლად ან დამამშვიდებელი ხმის პეიზაჟების მოსასმენად. ეს შესანიშნავი ფუნქციაა, მაგრამ კიდევ უკეთესი იქნება, როდესაც ის იმუშავებს Apple-ის მოსალოდნელ მომავალ სათვალე პროდუქტთან. 3D სივრცეში ბგერების განთავსება AR ობიექტებთან შესატყვისად, ნამდვილად გაყიდის ილუზიას.

ან რას იტყვით Live Text-ზე, iOS 15 ტექნოლოგიაზე, რომელიც ამოიცნობს და კითხულობს ტექსტს ფოტოებში და პირდაპირ ეთერში iPhone-ის კამერით? ეს არის კიდევ ერთი ფუნქცია, რომელიც იდეალურია ნიშნების, მენიუების და სხვა ტექსტის AR სათვალეების წასაკითხად.

პირდაპირი სუბტიტრები

Live Captions იღებს მეტყველებას FaceTime ზარიდან, ვიდეოკონფერენციის აპებიდან, ვიდეოს სტრიმინგიდან და ა.შ. თქვენი ტელეფონი იღებს აუდიოს და ტრანსკრიფციას ახორციელებს, რაც ამ ვიდეოში ჩანს.

ეს მშვენიერია, მაგრამ კიდევ უკეთესი ის არის, რომ არაფერი ტოვებს თქვენს iPhone-ს. Apple-ის თქმით, წარწერები გენერირდება მოწყობილობაზე, სერვერზე გაგზავნის ნაცვლად. ეს არ არის მხოლოდ უფრო პირადი, ის ასევე ბევრად უფრო სწრაფია.

"არ ვარ დარწმუნებული, რომ Apple-ის ცოცხალ თარგმანს უკეთ ვენდობით, ვიდრე Google-ის ახალ AR სათვალეებს, მაგრამ ვფიქრობ, შეგვიძლია გვჯეროდეს, რომ კონკურენცია ხელს შეუწყობს საუკეთესო შედეგების გამომუშავებას", განუცხადა Lifewire-ს SecurityNerd-ის დამფუძნებელმა კრისტენ ბოლიგმა. ელფოსტით.„ახლა, როცა კონკურენცია საჯაროა და ამ ტიპის ტექნოლოგიებთან დაკავშირებული საკითხები (კონფიდენციალურობა, სიზუსტე და ა. წყვეტს ამ პრობლემებს."

ჩვენ ასევე მოველით რაიმე სახის ჩაშენებულ ავტომატურ თარგმანს, როგორიც შეგიძლიათ ახლავე მიიღოთ მესამე მხარის აპლიკაციის Navi-ის გამოყენებით თქვენი FaceTime საუბრების ავტომატური თარგმნისთვის, ან შესაძლოა ამ ტრანსკრიფციების შესანახად ინტერვიუების დროს. მოგვიანებით უფრო ადვილი წვდომა.

ჩვენ დიდი ხანია ვსარგებლობთ Apple-ის წვდომის შესანიშნავი ფუნქციებით, რაც გვაძლევს საშუალებას, თითქმის აბსურდულად მოვარგოთ ჩვენი iOS მოწყობილობები. ეკრანის შესწორებიდან ფერების და ტექსტის გასაადვილებლად დასანახად, მთელი მომხმარებლის ინტერფეისის გარე მოწყობილობებით კონტროლით, ტელეფონის შეტყობინებით, როცა ვინმე კარზე რეკავს, ან მიტანის ფურგონს გარეთ მოვა.

ახლა, ჩვენ ყველანი ვიღებთ უპირატესობებს Apple-ის გაზრდილი კვლევისგან, გაფართოებული რეალობის ტექნოლოგიაში. ჩვენ შეიძლება არ ვიზრუნოთ IKEA-ზე ან LEGO-ზე და არც გვსურს ოდესმე ვიყიდოთ Apple-ის ზღაპრული AR სათვალე, მაგრამ ეს არ ნიშნავს იმას, რომ ჩვენ ყველა ვერ დავტკბებით ამ კვლევის ნაყოფით.

გირჩევთ: