※筆者はプロセカのゲーマー、ユーザーではありません。
本記事は映画単体での記事です。
あらすじ:公式より

「キミのことを、教えて。そうすれば、歌がわかるのかもしれない」
CDショップで聞いたことの無い三区の詩を耳にした星乃一歌。
彼女はモニターに、見たことの無い姿の“初音ミク“を見つけ、「ミク!?」と思わず声に出す。
その声に驚いたミクは、一歌と目が合ったものの、ほどなくして消えてしまう。
後日、路上ライブを終えた一歌のスマホに、以前見かけたミクが姿を現す。
寂しそうに俯くミクに、一歌はそっと話を聞いてみると、
”想いの持ち主“たちに歌を届けたいのだが、いくら歌っても、その歌が届かないという。
ライブで多くの人の心に歌を届ける一歌の姿を見て、
彼女のことを知れば自分も”想いの持ち主“たちに歌を届けることが出来るのではと考えたミクは、
一歌のもとにやってきたのだった。
ミクの願いに「私でよければ」と微笑みながら一歌は答え、
初音ミクと少年少女たちの新たな物語が始まるーーー
1,総評
2,人工知能と情動について
※ネタバレ含む

1,総評
55点。
演出:(監督:畑 博之)
ライブパート含め楽曲パートの躍動感や演奏感は楽しい。
キャラデザが甘い為に、
個別エピソードの唐突感が激しいものの、
全体的には丁寧な仕上げ。流石のP.A.WORKS。
脚本:(米内山 陽子)
メインキャラが多く、
前半パートの全員による、
フワフワのミク応援が散漫で必要性が薄い。
壊れたセカイのミクとノーマルミクの、
初会合の場面の台詞が冗長で稚拙。
壊れたセカイで闇に飲まれるミクは、
切羽詰まる感が凄いが、
直前における有象無象の諦念の叫びが、
前後の場面との連動性がほぼ皆無であるために、
あざとさだけが残るのは残念。
本来なら序盤でミクは闇に飲ませて、
後半の楽曲作成における各メンバー毎の創作に関する、
葛藤や高揚を濃密に描いた方が盛り上がるのでは。
楽曲発表の場面での白眉は25時のナイトコード。

最後に起き上がり、
ミクが別れを告げるまでの展開は、
エピローグの割には長過ぎてダルい。
絵コンテ:(P.A.WORKS)
OPの時点で怪しい。
バーチャル世界と現実世界との描き分けが不明瞭で分かりにくい。
キャラデザ:(総作画監督:辻 雅俊)

15人ほどのメインキャラと、
歴代のボーカロイドを全員出すなら、
性格や葛藤はもう少し造り込みが必要。
無駄な台詞が多くてそれぞれの役割がぼやけがち
美術:(鈴木 くるみ、塩澤 良憲
序盤の渋谷の街並みや桜坂、
壊れたセカイの天井樹や宙空窓の創造力は素晴らしい
文芸:
壊れたミクの歌えない理由の、
特定と相剋がテーマであるのだが、
テーマの掘り下げは薄い。
例えばミクはボーカロイドであり、
本来的に心情理解という機能は存在しないために、
心情理解への契機など背景が描かれて然るべきだが、
説明は無い。
あるいはミクのセカイの壊れる契機となる、
有象無象のモブの諦念と怒りに感化される背景が示されるが、
単一的な台詞に終始し、
背景描写が無いため唐突感が否めない。
メインキャラに諦念や怒りを表現させた方が、
物語としてはドライブする筈である。
音響:(明田川 仁、マジックカプセル)
OPの躍動感や昂揚感が欠ける。
ミクが壊れたセカイの闇に飲まれる場面は素晴らしい。
ライブパートがフルCGでそれまでの劇場パートとの乖離が激しく、
終わり方も唐突である、、
2,人工知能と情動について

人工知能(AI)に感情を与える研究は、
感情認識や感情生成に関する技術の進化を通じて進展してきた。
以下に、1900年代から2020年代にかけての歴史を概説し、
2020年代における重要な研究成果を示す。
1900年代から1950年代
AIの概念の誕生:
1950年代にイギリスの数学者アラン・チューリングが
「計算する機械と知性」という論文を発表し、
AIの概念が生まれた。この時期はまだ感情に関する研究は無い。
1960年代から1990年代
初期のAIブーム: 1960年代から1970年代にかけて、AIの第1次ブームがあったが、
感情認識に関する具体的な研究はまだなかった。
感情認識の基礎: 1990年代後半に、
MITのロザリンド・ピカード教授が「Affective Computing」という概念を提唱し、
感情認識AIの基礎を築いた。
2000年代から2010年代
感情認識AIの進展: ピカード教授がAffectiva社を設立し、
Affdexという感情認識技術を開発。
この技術は顔の表情や音声から感情を分析するもので、
教育や医療などで活用され始めた。
機械学習の進化: 2010年代にはディープラーニング技術が進化し、
感情認識や生成に関する研究が加速した。
2020年代
2020年代には、感情認識AIがさらに進化している。
複数モダリティからの感情理解:
時間幅レベルでの融合や感情強度アテンションを用いた、
Residual Memory Networkを提案し、
複数モダリティからの感情理解を向上させている。
2.グラフ畳み込みブロードネットワーク(GCB-net)による感情認識:
グラフ畳み込み層を用いてグラフ構造の入力を処理し、
CNN層で高レベルの特徴を抽象化するモデルを提案している。
3.ラッセルの円環モデルに基づく感情重心推定:
ラッセルの円環モデルの座標系に基づき、
コミュニケーションにおける情動の定量的評価を目指した、
感情重心推定方法を提案している。
4.感情認識AIの実用化:
接客サービスや医療などで、感情認識AIが活用され、
よりきめ細やかな対人サービスが可能になっている。
5.倫理的課題:
感情AIの正確性や倫理的な問題(プライバシーやデータ品質)が
依然として重要な課題となっている。
比較推奨文献:
映画「アイの歌声を聴かせて」

例えば2022年の映画「アイの歌声を聴かせて」では、
AIが人間の感情を理解し、幸せを叶えようとする過程が描かれる。
AI少女のシオンは人間の感情を観察し、仮説を立てて行動を起こすが、
具体的な感情認識技術は描かれていない。
その過程は物語の最期に描かれるため、ネタバレとなるが、
要するに主人公母親の、娘への見守り命令によるシオンの経験値が、
集積した結果としての疑似人間感覚や共感を発動する構造になっている。
(観察→仮説→行動→フィードバック、以下ループ)。
「プロジェクトセカイ」のゲーム版をプレイした人であれば、
ミクの感情理解や表現はまた異なったものとなるのだろうが、
その観点から、人間の負の感情と正の感情、
その発露としての音楽活動に掘下げていくなら、
また新たな「プロジェクトセカイ」としての可能性も見えてくるだろう。
Citations:
[1] https://innovationhub.cac.co.jp/archives/18
[2] https://www.jstage.jst.go.jp/article/jsoft/34/3/34_89/_pdf
[3] https://note.com/meihua87/n/n087237dc952c
[4] https://ldcjp.com/event-report/%E6%84%9F%E6%83%85%E8%AA%8D%E8%AD%98%E3%81%A8%E4%BA%BA%E5%B7%A5%E8%87%AA%E6%88%91/
[5] https://aismiley.co.jp/ai_news/usage-example-of-emotion-recognition-ai/
[6] https://jss-sociology.org/other/20220928post-13544/
[7] https://aismiley.co.jp/ai_news/detailed-explanation-of-the-history-of-ai-and-artificial-intelligence/
[8] https://www.emergenresearch.com/jp/blog/top-10-companies-in-global-emotion-ai-market
https://kuluna.github.io/blog/post/20211128/
1件のコメント