VOKORO
VOKORO
ヴォイス🎤とココロ💗、声から気持ちを解析します。
🌸 関係性に合わせて解析 🌿 自動クールダウン 📊 自動学習 ⚡ 30秒でサクッと
AI+アルゴリズム: 音響解析(エビデンスベース)+ AIによる心理学的処方箋。最も詳細な結果。
声帯の解剖学的変化を補正し、精度を向上させます。
声帯の厚さ・長さが異なるため、性別で解析精度が向上します。
--
dB
LEVEL
20Hz ─── 8kHz
🎙 LIVE
REC
00:00
/ 00:30
WAV推奨。ffmpegがあれば自動変換します。
--
dB
LEVEL
20Hz ─── 8kHz
📁 ANALYZING
YouTube・SoundCloud等に対応
--
dB
LEVEL
20Hz ─── 8kHz
🌐 FETCHING
通話中のリアルタイム・モニタリング
待機中
Tension: —
サーバ不要 — ブラウザだけで解析(Web Audio API)
OFF
待機中
録音・アップロード・URLで声を入力 → 自動で解析します 🌸
📊 解析結果
声を受け取りました…
  • 📤 音声を送信
  • 🔍 声の品質チェック
  • 📊 6つの特徴を解析
  • 🤖 AIが処方箋を作成
  • 🌸 結果をまとめています
あなたの声の状態
☆☆☆☆☆
解析結果がここに表示されます。
😊 感情
💗 元気度
💡 アドバイス
ここにアドバイスが出ます。
この解析結果は役に立ちましたか?
評価するとVOCOROが自動学習して精度が向上します
🌸 VOKOROでできること タップで開く
🎤 5つの入力方法
🎙 録音
マイクで最大30秒
📁 ファイル
WAV等をアップロード
🌐 URL
YouTube等のリンク
📡 ストリーミング
通話中リアルタイム監視
🔒 ローカル
サーバ不要・プライバシー◎
📊 わかる結果
🌸 総合スコア(L1〜L5) — 10種類以上の音声特徴を多角的に組み合わせ、総合的にスコアを算出
😊 感情 — 緊張・悲しみ・興奮・安心・混在を推定
🔑 いちばんの要因 — スコアに最も影響した声の特徴
💡 アドバイス — 「音量を○dB下げる」等の具体的な改善策
🤖 AIアドバイス — 心理学ベースのより詳しい提案
🎵 声のかたち — 声を色と模様で視覚化
💑 4つの関係性モード
パートナー・お子さま・友だち・赤ちゃん — 相手に合わせて解析を最適化します。
🌍 6言語対応
🇯🇵日本語 🇺🇸English 🇨🇳中文 🇪🇸Español 🇫🇷Français 🇩🇪Deutsch
アドバイスも選んだ言語で出力されます。
🌱 学習する
👍👎のフィードバックで、使うほどVOKOROが賢くなります。
🔬 10種類以上の声の特徴を多角的に解析
VOKOROはシマーだけでなく、声のあらゆる側面を総合的に分析しています。
🗣 声の品質
Shimmer(シマー)
声の振幅の揺らぎ → 緊張・不安定さ
Jitter(ジッター)
声の周期の揺らぎ → 声帯のストレス
HNR(調波対雑音比)
声のクリアさ → 疲労・かすれ
ピッチ変動
声の高低差 → 感情表現の豊かさ
フォルマント F1/F2
母音の共鳴 → 口の開き・発声の仕方
🎵 音色・スペクトル
MFCC
声の「音色」の全体的な特徴
スペクトル重心
声の明るさ・鋭さ
高周波エネルギー比
2kHz以上の成分 → 緊張時に上昇
スペクトル傾斜
周波数分布のバランス
📊 エネルギー
RMS(音圧)
声の大きさ・エネルギー量
SNR(信号対雑音比)
音質チェック・ノイズ判定
💑 パートナー: シマーを重視(声の不安定さが関係性に影響)
👶 お子さま: ピッチ変動・HNRを重視(語りかけの抑揚・温かさ)
🤝 友だち: HNR・ピッチ変動をバランスよく
🍼 赤ちゃん: ピッチ変動・ジッター・シマーを重視(泣き声の原因推定)
🌍 言語ごとにピッチ変動の基準値も調整(声調言語等に対応)
🔬 VOCOROエンジン a81aadd
6つの音響バイオマーカーと査読済み論文に基づく声の共鳴解析エンジン
解析パイプライン
🎙
音声入力
録音/ファイル/URL
🔊
WAV変換
ffmpeg自動変換
📊
6特徴量抽出
3スレッド並列
🧬
Z-score正規化
年齢・声帯幅補正
⚖️
エビデンススコア
10論文重み付き
🤖
AI処方箋
冷却・消毒機構付き
6つの音響バイオマーカー
指標 測定内容 根拠論文
💓 Shimmer声の振幅揺らぎ(声帯の緊張)Brockmann-Bauser 2018, Koffi 2025
😣 Jitter声の周波数揺らぎ(喉頭の微振動)Scherer 2003, Koffi 2025
✨ HNR倍音対雑音比(声の透明感)Fagherazzi 2021, Abou Chami 2025
🎶 Pitch変動声の高さの変化幅(抑揚)Nasir 2017, Larrouy-Maestri 2025
💪 高周波エネルギー2kHz以上の倍音成分比率Cox 2022, Filippa 2025
🌸 スペクトル重心周波数分布の重心位置(声の明るさ)Pietrowicz 2025, Oliveira 2025
精度と信頼性
79.2%
関係性予測精度
Nasir et al. 2017, PLOS ONE
134組のカップル療法で検証
94–96%
泣き声分類精度
Qiu et al. 2024, J Voice
MFCC+Mel+Tonnetzハイブリッド
92.4%
早産児啼泣分類
Kukleva et al. 2025, Sci Rep
CNN+メルスペクトログラム
安全機構: AI出力とエビデンスの乖離が30%以上の場合、自動冷却(消毒)が発動しエビデンス優先に切り替え。 SPL補正(Brockmann-Bauser 2018)、声帯幅補正(Zhang 2021)、年齢補正による個体差除去を実装。
Nasir et al. (2017) "Predicting couple therapy outcomes based on speech acoustic features" PLOS ONE. 134組のカップル療法録音で音響特徴(shimmer/jitter/pitch)による関係改善予測精度79.2%を達成。
Nasir et al. (2015) "Still Together?: The Role of Acoustic Features in Predicting Marital Outcome" Proc. Interspeech. USC Signal Analysis and Interpretation Lab.
Jordan et al. (2025) "Speech Emotion Recognition in Mental Health: Systematic Review" JMIR Mental Health. 音響特徴が感情的手がかりを伝える仕組みの体系的レビュー。
Larrouy-Maestri, Poeppel & Pell (2025) "The Sound of Emotional Prosody: Nearly 3 Decades of Research and Future Directions" Perspectives on Psychological Science. f0・発話速度・声質が感情状態を伝える仕組みの30年レビュー。
Cox et al. (2022) "A systematic review and Bayesian meta-analysis of the acoustic features of infant-directed speech" Nature Human Behaviour. 88研究・734効果量のメタ分析。F0/母音空間の横断的安定性を確認。
Filippa et al. (2025) "Maternal and paternal infant directed speech is modulated by the child's age" Scientific Reports. 69家族の親IDS音響特徴を3-18ヶ月で追跡。9ヶ月でピッチ・強度が顕著に変化。
Bryant et al. (2025) "Pitch characteristics of real-world infant-directed speech vary with pragmatic context" PLOS ONE. 3,607音声クリップから、IDSのピッチ特性が語用論的文脈・性別で変動することを発見。
Peter et al. (2025) "Infant Directed Speech Facilitates Vowel Category Discrimination in Pre-Verbal Infants" Developmental Science. IDSの音響的誇張が4ヶ月児の母音識別を促進。
Kuhl et al. (1997) "Cross-language analysis of phonetic units in language addressed to infants" Science, 277(5326). 母音超明瞭化(F1/F2空間拡大)が乳児の言語獲得を促進。
Kukleva et al. (2025) "Listening deeper: neural networks unravel acoustic features in preterm infant crying" Scientific Reports. CNNでメルスペクトログラムから在胎週数を92.4%の精度で分類。
Qiu et al. (2024) "Classification of Infant Cry Based on Hybrid Audio Features and ResLSTM" Journal of Voice. 泣き声5分類で94-96%精度を達成。
Vilcekova et al. (2025) "A Study of Deep Learning Models for Audio Classification of Infant Crying" Informatics. ResNetとEfficientNetを用いた乳児啼泣検出モデルの比較研究。
PMC10547902 (2023) 新生児の泣き声音響バイオマーカー研究。cry jitter=0.016, distress=0.022; shimmer cry=0.113, distress=0.143; HNR cry=11.9dB, distress=6.7dB。
Bellieni et al. (2004) "Cry features reflect pain intensity in term newborns" Pediatric Research, 55(1). DAN>8で高F0「サイレン泣き」アラーム閾値。
Oliveira et al. (2025) "Listening to the Mind: Integrating Vocal Biomarkers into Digital Health" Brain Sciences. pitch/jitter/shimmer/HNRで感情・精神状態を検出するMLアプローチのレビュー。
Pietrowicz et al. (2025) "Automated acoustic voice screening for comorbid depression and anxiety" JASA Express Letters. 1分間の音声から音響特徴により70-83%の精度でうつ病・不安障害を検出。
Abou Chami et al. (2025) "The Human Voice as a Digital Health Solution Leveraging Artificial Intelligence" Sensors. F0/shimmer/jitter/HNRをAIで評価するデジタルヘルスソリューション。
Koffi (2025) "A Comprehensive Review of Jitter, Shimmer, and HNR" Linguistic Portfolios, 14(1). jitter/shimmer/HNRの言語学・パラ言語学応用の包括的レビュー。
Sfeir et al. (2025) "A Systematic Review on Parent-Child Synchrony: Stress, Resilience and Psychopathology" Clinical Child and Family Psychology Review. 親子間の発声・表情・生理学的同期のレビュー。
Scherer (2003) "Vocal communication of emotion: A review of research paradigms" Speech Communication. shimmer/jitter/HNRによる不随意的感情推定の基盤モデル。
Bowlby (1969/1982) Attachment and Loss, Vol.1: Attachment. 安全基地の声質特性(低めのHNR、安定したピッチ)。
🔬 研究データ・自動学習 タップで開く
👍👎のフィードバックは匿名化された音響特徴量として蓄積され、アルゴリズムの自動学習と論文のバリデーションデータに活用されます。音声データ(生波形)は一切保存されません。
📊 総解析数
💬 フィードバック数
👍 承認率
🎂 年齢入力率
📥 CSV 📥 JSON
すべてのプランで基本機能が使えます。
Free プラン 0 / 10 回
今月の解析回数
Free
¥0
ずっと無料
  • 月10回の音声解析
  • 4つの関係性モード
  • アルゴリズム解析
  • AI処方箋
  • 解析履歴
Clinic
¥4,980/月
専門家・クリニック向け
  • 無制限の音声解析
  • AI処方箋(無制限)
  • API アクセス
  • 複数アカウント
  • 専用サポート
決済はStripeによる安全な処理です。いつでも解約可能。
Contact
✉️ メール 📷 Instagram
minamisoma.vet@gmail.com