機能の充実はフェイクを量産するということでもある。
AIの発展は、フェイクとつながること。
しかし、このAIの弊害と利用する者との関係は本来は利用する人間の問題。
技術が進むとなりすましは増える。だが、リテラシーがあれば、本来見分けることができるはず。
倫理観というものは、もっと問われるべきで、テクノロジーの規制とは別次元の問題だ。
Yahoo!より、
OpenAIの「Voice Engine」は15秒分の声データを元に本人そっくりに喋る
3/30(土) 7:56配信
ITmedia NEWS
https://news.yahoo.co.jp/articles/bc50864b217edb667d9ee7fb5da21d1934960e89
記事より、
米OpenAIは3月29日(現地時間)、人の声を再現できる生成AIモデル「Voice Engine」を発表した。テキスト入力と15秒分の音声サンプルで、元の話者によく似た自然な音声を生成できる。感情的なリアルな音声で、母国語以外の言語も話せる。
2022年から開発していたこのモデルは、既に同社の「Text-to-Speech API」や「ChatGPT」アプリの音声チャット機能、ChatGPTのテキスト読み上げ機能「Read Aloud」などで採用されている。
【このカテゴリーの最新記事】
-
no image
-
no image
-
no image
-
no image
-
no image
-
no image
-
no image
-
no image
-
no image
-
no image
-
no image
-
no image
-
no image
-
no image
-
no image
-
no image
-
no image
-
no image
-
no image
-
no image