2025年のWWDC、いろいろ気になる発表はあったけど──
個人的に「これ、めちゃくちゃ未来っぽいな」って思ったのが iOS 26 × AirPods Pro のリアルタイム翻訳機能、その名も Live Translation。
「通話中に相手の言葉が自分の言語で耳に届く」
……って、ちょっと前なら映画の中の話だったよね?
でもApple、やっちゃったみたいです。
どんな機能なの?
iPhone 15 Pro / Pro Max と AirPods Pro(第2世代)を使うと、
電話やFaceTime中に、相手の話す内容がリアルタイムに翻訳されて、耳に届く。
しかもFaceTimeビデオでは、字幕+音声のダブル翻訳もOK。
これが「AIによる通訳体験」なのか…とちょっと感動。
対応環境は?
必要なもの |
詳細 |
---|---|
iPhone |
iPhone 15 Pro / Pro Max 以降 |
AirPods |
AirPods Pro 第2世代(H2チップ) |
OS |
iOS 26(現在は開発者ベータ) |
技術 |
Apple Intelligence(オンデバイスAI) |
現時点ではけっこうハードル高めだけど、未来のスタンダード感ある。
使ってみたい理由
いや、正直、私はAirPods Proが耳に合わなくて…。耳入れるところのシリコンにかぶれちゃって、耳の中の皮まで剥けた笑
でも、これは試してみたくなるレベルだった。
AIって、「なんかすごそうだけど難しい」って思われがちだけど、Appleは“意識せずに使えてしまうAI”を目指してるのかなって思えるスマッシュヒットな機能に思える。まぁ、実際使ったら「めっちゃしょぼっ!!」て可能性もあるけどね。
「AirPodsをつけていたら、世界中の人と話せるようになった」
そんな未来が、もう目の前にきてるって感じた。
あとがき
iPhoneもAirPodsも、ただのガジェットじゃなくて、日常の“壁”をひとつひとつ壊していってる気がする。もう少ししたら、ベータ版入れようかと思ってるけど、AirPods Pro持ってないからなぁ。(できれば、ProじゃないAirPodsでも対応してくれたら…Appleさん、お願いします!)
この先もっともっと、「気づいたらAIがそばにいた」みたいなかつての映画みたいな時代がくるんだろうな〜。
今日の一曲 - ハートじかけのオレンジ / NIAGARA TRIANGLE
1982年リリースの「Vol.2」より。昭和の終わりに、ちょっと未来を夢見た音。
耳元に届く翻訳音声と、当時のドリーミーなシンセがどこかで重なる。そんな気がして選びました。