使用言語に関係なく脳活動から言葉を翻訳するAIが登場!
未来の翻訳は全て脳活動の測定で行われるかもしれません。
米国の「Meta AI」社で行われた研究によれば、脳活動を脳磁場や脳波を測定することで、人間が聞いたり話している音声や単語を当てられるAIを開発した、とのこと。
この技術が発展すれば、言語にとらわれない翻訳が可能になります。
将来的には、脳活動から読み取られたデータを意味のある音声に変換することで、麻痺により言葉を介して意思疎通がとれなくなってしまった患者に、自らの言葉を伝える手段を提供することも可能になるでしょう。
全文はこちら
https://nazology.net/archives/114712
思考盗聴はずっと以前からある技術だ
Spring (春)とspring (泉)とspring (バネ)の区別がつくのか?
>>5
脳活動なら( )の中のほうを読み取れるはずだから区別できる
>>5
ニュアンスを読み取ることになるんだから言葉は関係ないだろ
こんにゃく的なナニか?
ボケかけてて単語が出て来ないのに矢鱈話しかけてくる奴がいて、非常に鬱陶しい。
この機械を額にくっ付けて奴の言うアレソレナニが何を表わしているのか表示できる様になると、
少しは暮らしやすくなるに違いない。
>>1
言語に関係ない脳活動ということなら、
頭の中のイメージを読み取るのか。
丸とか三角を読み取るくらいしか
できそうに思えない。
へええ
同じ言葉を聞いた反応でも人によって脳の使い方違うんじゃないかと思ってたけど
案外共通するものあるんだな
言語違う者同士の子供が意思疎通する逸話は古来よりある
言語は概念に付けられたラベルでしかないから別言語でも概念認識自体はほぼ同じだろう
言語が同じでも概念認識自体が違うケースもあるけどね
むしろ年食うほどこっちの方が多い
目配せとかジェスチャーなんじゃね
飼い犬と話せる飼い主いっぱいいるし
動物に関してはそもそもどこまで考えてるかだな
うちの猫の考えてることは大体想像つくし
女と会話しながら「ええ乳しとんなあ」と頭の中で考えたらバレるの?
しばらくしたら各スマホに高性能AI搭載されて個人個人の正確に合わせた動きをしてくれるようになるんじゃないか
ピカチュウとサトシみたいな相棒関係になりそう