Publications

学術論文

  1. 永岡篤, 森大毅, 有本泰子, “感情音声コーパス共通化のための新たな感情ラベル推定における既存感情ラベル併用の効果,” 日本音響学会誌, vol.73, No.11, pp.682-693, 2017.
  2. Y. Arimoto and K. Okanoya, “Multimodal features for automatic emotion estimation during face-to-face conversation,” Journal of Phonetic Society of Japan, vol. 19, no. 1, pp. 53-67, 2015. [PDF]
  3. Y. Arimoto and K. Okanoya, “Mutual emotional understanding in a face-to-face communication environment: How speakers understand and react to listeners’ emotion in a game task dialog,” Acoustical Science and Technology, vol. 36, no. 4, pp. 370-373, 2015. [PDF]
  4. Y. Arimoto, H. Kawatsu, S. Ohno, and H. Iida, “Naturalistic emotional speech collection paradigm with online game and its psychological and acoustical assessment,” Acoustical Science and Technology, vol. 33, no. 6, pp. 359-369, 2012. [PDF]
  5. Y. Arimoto, S. Ohno, and H. Iida, “Assessment of spontaneous emotional speech database toward emotion recognition: Intensity and similarity of perceived emotion from spontaneously expressed emotional speech,” Acoustical Science and Technology, vol. 32, no. 1, pp. 26-29, 2011. [PDF]
  6. 有本泰子, 大野澄雄, 飯田仁, “「怒り」の発話を対象とした話者の感情の程度推定法,” 自然言語処理, vol. 14, no. 3, pp. 147-163, 2007. [PDF]
  7. 飯田仁, 有本泰子, “音響的特徴と言語的特徴をパラメータ化して統合的に扱う感情表現の程度推定手法,” 語用論研究, no. 8, pp. 33-46, 2006. [PDF]

招待講演

  1. 有本泰子, “表現豊かな音声に対する感情の理解,” 一般社団法人電子情報技術産業協会(JEITA)IT-4012・話し方種別ガイドライン講演会, 2019.
  2. Y. Arimoto, “Challenges of Building an Authentic Emotional Speech Corpus of Spontaneous Japanese Dialog,” in special speech session in The International Conference on Language Resources and Evaluation (LREC2018), pp. 6-13, 2018. [PDF]
  3. 有本泰子, “感情音声コーパスの構築と利用:いかにして生の感情を対象に研究を行うか,” 音声資源活用シンポジウム2017, 国立国語研究所, 2017.
  4. 有本泰子, “コミュニケーション場面におけるリアルな感情表出の分析,” 日本音響学会2015年秋季研究発表会講演論文集, pp. 1317-1320, 2015.
  5. 有本泰子, “対話場面におけるマルチモーダル感情コミュニケーション,” ヒューマンストレス産業技術研究会第27回講演会, 2014.

国際会議

  1. H. Mori, T. Nagata, and Y. Arimoto, “Conversational and Social Laughter Synthesis with WaveNet.” in Proceedings of Interspeech 2019, pp. , 2019.
  2. Y. Arimoto,Y. Horiuchi, and S. Ohno, “Consistency of base frequency labelling for the F0 contour generation model using expressive emotional speech corpora,” in Proceedings of Speech Prosody 2018, pp. 398-402, 2018. [PDF]
  3. Y. Arimoto, “Challenges of Building an Authentic Emotional Speech Corpus of Spontaneous Japanese Dialog,” in special speech session in The International Conference on Language Resources and Evaluation (LREC2018), pp. 6-13, 2018. [PDF]
  4. Y. Arimoto and H. Mori, “Emotion category mapping to emotional space by cross-corpus emotion labeling,” in Proceedings of Interspeech 2017, pp. 3276-3280, 2017. [PDF]
  5. Y. Arimoto and K. Okanoya, “Comparison of Emotional Understanding in Modality-controlled Environments using Multimodal Online Emotional Communication Corpus,” in Proceedings of The International Conference on Language Resources and Evaluation (LREC2016), pp. 2162-2167, 2016. [PDF]
  6. H. Mori and Y. Arimoto, “Accuracy of Automatic Cross-Corpus Emotion Labeling for Conversational Speech Corpus Commonization,” in Proceedings of The International Conference on Language Resources and Evaluation (LREC2016), pp. 4019-4023, 2016. [PDF]
  7. Y. Arimoto and K. Okanoya, “Emotional synchrony and covariation of behavioral/physiological reactions between interlocutors,” in Proceedings of the 17th Oriental COCOSDA (International Committee for the Co-ordination and Standardization of Speech Databases and Assessment Techniques) Conference 2014, pp. 100-105, 2014. [PDF]
  8. Y. Arimoto and K. Okanoya, “Individual differences of emotional expression in speaker’s behavioral and autonomic responses,” in Proceedings of Interspeech 2013, pp. 1011-1015, 2013. [PDF]
  9. Y. Arimoto and K. Okanoya, “Dimensional Modeling of Perceptual Difference of Multimodal Emotion Perception,” in Proceedings of the Workshops of the 9th international conference on the Evolution of Language, pp. 45-46, 2012.
  10. Y. Arimoto and K. Okanoya, “Dimensional Mapping of Multimodal Integration on Audiovisual Emotion Perception,” in Proceedings of the international conference on Audio-Visual Speech Processing 2011, pp. 89-94, 2011. [PDF]
  11. Y. Arimoto, H. Kawatsu, S. Ohno, and H. Iida, “Emotion recognition in spontaneous emotional speech for anonymity-protected voice chat systems,” in Proceedings of Interspeech 2008, pp. 322-325, 2008. [PDF]
  12. Y. Arimoto, S. Ohno, and H. Iida, “Study on voice quality parameters for anger degree estimation,” 2702, in Proceedings of Acoustics08, 2008.
  13. Y. Arimoto, S. Ohno, and H. Iida, “Automatic Emotional Degree Labeling for Speakers’ Anger Utterance during Natural Japanese Dialog,” in Proceedings of The International Conference on Language Resources and Evaluation (LREC2008), pp. 2279–2284, 2008. [PDF]
  14. K. Murata, M. Enomoto, Y. Arimoto, and Y. Nakano, “When Should Animated Agents Give Additional Instructions to Users? – Monitoring user’s understanding in multimodal dialogues -,” in Proceedings of International Conference on Control, Automation and Systems (ICCAS 2007), pp. 733-736, 2007.
  15. Y. I. Nakano, K. Murata, M. Enomoto, Y. Arimoto, Y. Asa, and H. Sagawa, “Predicting Evidence of Understanding by Monitoring User’s Task Manipulation in Multimodal Conversations,” in Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics (ACL2007) Demo and Poster Sessions, pp 121-124, 2007.
  16. Y. Arimoto, S. Ohno, and H. Iida, “Acoustic Features of Anger Utterances during Natural Dialog,” in Proceedings of Interspeech2007, pp.2217-2220, 2007. [PDF]
  17. Y. Arimoto, S. Ohno, and H. Iida, “Emotion Labeling for Automatic Estimation of Speakers’ Anger Emotion Degree,” in Proceedings of Oriental COCOSDA (The International Committee for the Co-ordination and Standardization of Speech Databases and Assessment Techniques) Workshop 2006, 19_jp, pp.48-51, 2006.
  18. Y. Arimoto, S. Ohno, and H. Iida, “A method for estimating the degree of a speaker’s anger using acoustic features and linguistic representation,” in Proceedings of Fourth Joint Meeting of ASA and ASJ, 1pSC44, 2006.
  19. H. Iida, and Y. Arimoto, “One-word Utterance Pragmatics and Emotional Speech Intention,” in Proceedings of International Conference on Multidisciplinay Information Sciences and Technologies (InSciT2006), Vol. II, pp.142-146, Merida, Spain, 2006.
  20. Y. Arimoto, S. Ohno, and H. Iida, “A Method for Discriminating Anger Utterances from Other Utterances using Suitable Acoustic Features,” in Proceedings of International Conference on Speech and Computer (SPECOM2005), pp.613-616, 2005.

書籍・解説

  1. 有本泰子, “感情音声の分析,” 音響キーワードブック, 日本音響学会 編, 株式会社コロナ社, 東京, pp. 158-159, 2016. (ISBN 978-4-339-00880-7)
  2. 有本泰子, “コミュニケーション場面における感情表出,” 生物の科学 遺伝, no. 6, 株式会社エヌ・ティー・エス, 東京, pp. 674-678, 2013.
  3. Y. Arimoto, S. Ohno, and H. Iida, “Emotion labeling for automatic estimation of the speakers’ angry intensity,” in Computer Processing of Asian Spoken Languages, S. Itahashi and C. Tseng, Eds. Los Angeles: Americas Group Publications, 2010, Chapter 6, Section 2, Part 4, pp. 292–295. (ISBN
    978-0-935047-72-1)

国内発表

  1. クー ユエン, 加茂直樹, 有本泰子, “音響的特徴量によるゲームプレイ中の笑い声分類モデルの構築,” 日本音響学会2019年秋季研究発表会講演論文集, pp. , 2019.
  2. 有本泰子, クー ユエン, 小山俊樹, 金子裕亮, “Affect Burst検出に向けた笑い声および叫び声ラベリングとその音響分析に関する予備的検討,” 電子情報通信学会技術研究報告, pp. , 2019.
  3. 有本泰子, 野村直人, 加茂直樹, “キャラクターエージェントに対する他者性認知の客観的評価,” 日本音響学会2019年春季研究発表会講演論文集, pp. 813-817, 2019.
  4. 有本泰子, 森大毅, “対話中に表出した笑い声の声質分析,” 日本音響学会2018年秋季研究発表会講演論文集, pp. 879-880, 2018.
  5. 森大毅, 永田智洋, 有本泰子, “WaveNetによる笑い声の合成,” 日本音響学会2018年秋季研究発表会講演論文集, pp. 1133-11134, 2018.
  6. 有本泰子, “感情知覚に対するセンシティビティが異なる評価者群による感情評定値の比較,” 日本音響学会2018年春季研究発表会講演論文集, pp. 1347-1348, 2018.
  7. 森大毅, 有本泰子, 永田智洋, “複数の会話コーパスを対象とした笑い声イベントのアノテーション,” 日本音響学会2017年秋季研究発表会講演論文集, pp. 217-218, 2017.
  8. 佐久間結,堀内靖雄,有本泰子,大野澄雄,黒岩眞吾, “藤崎モデルのパラメータ推定におけるマイクロプロソディ除去による効果の検討,” 日本音響学会2017年秋季研究発表会講演論文集, pp. 221-222, 2017.
  9. 横山雅季, 有本泰子, 森大毅, “対話音声の感情認識における音響的特徴と言語的特徴の効果,” 日本音響学会2017年春季研究発表会講演論文集, pp. 341-342, 2017.
  10. 有本泰子, 森大毅, “クロスコーパスラベリングによる感情空間への感情カテゴリのマッピング -音声知覚および音響分析による検討-,” HCGシンポジウム2016論文集, pp. 456-461, 2016.
  11. 有本泰子, 森大毅, “音声からの知覚による感情カテゴリと感情次元の関係,” 日本音響学会2016年秋季研究発表会講演論文集, pp. 219-222, 2016.
  12. 有本泰子, 森大毅, “クロスコーパス感情ラベリングによる対話音声の比較,” 日本音響学会2016年春季研究発表会講演論文集, pp.359-360, 2016.
  13. 有本泰子, 堀内靖雄, 大野澄雄, “発話の基本周波数分布にもとづく藤崎モデル基底周波数の決定手法,” 日本音響学会2015年秋季研究発表会講演論文集, pp. 243-244, 2015.
  14. 永岡篤, 森大毅, 有本泰子, “複数の対話音声コーパスにおける感情ラベルの相互推定,” 日本音響学会2015年春季研究発表会講演論文集, pp.415–416, 2015.
  15. 有本泰子, 江田康太郎, 菊池英明, 岡ノ谷一夫, “オンラインコミュニケーションにおけるモダリティ統制下の情動理解,” 日本音響学会2014年秋季研究発表会講演論文集, pp.385-386, 2014.
  16. 有本泰子, 岡ノ谷一夫, “対話者の生理反応を利用したマルチモーダル感情推定,” 日本音響学会2014年春季研究発表会講演論文集, pp.457-458, 2014.
  17. 有本泰子, 川村剛, 岡ノ谷一夫, “対話者による情動理解の妥当性,” 日本音響学会2013年秋季研究発表会講演論文集, pp.261-262, 2013.
  18. 有本泰子, 河津宏美, “音声チャットを利用したオンライゲーム感情コーパス” 日本音響学会2013年秋季研究発表会講演論文集, pp.385-388, 2013.
  19. 有本泰子, 岡ノ谷一夫, “情動の同調・非同調時における表出行動と生理反応の同期,” 日本音響学会2013年春季研究発表会講演論文集, pp.411-412, 2013.
  20. 有本泰子, 岡ノ谷一夫, “表出行動・生理反応を利用した話者の感情表出スタイルの分類,” 第2回日本情動学会大会, 2012.
  21. 有本泰子, 岡ノ谷一夫, “表出行動・生理反応を利用した話者の感情表出スタイルの分類,” HCGシンポジウム2012論文集, pp.408-413, 2012.
  22. 有本泰子, 岡ノ谷一夫, “対話者間の情動の同調・非同調時における音響的特徴と生理反応の同期,” 日本音響学会2012年秋季研究発表会講演論文集, 3-Q-23, pp. 411–412, 2012.
  23. 有本泰子, 岡ノ谷一夫, “マルチモーダル知覚情報の感情空間へのマッピング,” 日本音響学会2011 年秋季研究発表会講演論文集, 3-Q-12, pp.379-382, 2011.
  24. 有本泰子, 岡ノ谷一夫, “音声・表情による感情表現と知覚される混合感情との関係,” 日本音響学会2011 年春季研究発表会講演論文集, 2-P-33(a), pp.447-448, 2011.
  25. 有本泰子, 大野澄雄, 飯田仁, “怒りの程度の時間変化量を推定する音響的特徴量の検討,” 日本音響学会2009 年春季研究発表会講演論文集, 2-P-20, pp.493-494, 2009.
  26. 有本泰子, 河津宏美, 大野澄雄, 飯田仁, “感情音声のコーパス構築と音響 的特徴の分析 – MMORPG における音声チャットを利用した対話中に表れた感情の識別 -,” 情報処理学会第70 回音声言語情報処理研究会(SIG-SLP)研究報告, pp.133-138, 2008.[PDF]
  27. 河津宏美, 有本泰子, 大野澄雄, “感情情報を伝達する匿名音声チャットの開発,” 2008年電子情報通信学会総合大会 情報・システム講演論文集1, D-14-3, pp.176, 2008.
  28. 有本泰子, 大野澄雄, 飯田仁, “声質に着目した「怒り」の音声の音響分析,” 日本音響学会2008 年春季研究発表会講演論文集, 1-11-8, pp.257-258, 2008.
  29. 中野有紀子, 村田和義, 榎本美香, 有本泰子, 朝康博, 佐川浩彦, “ベイジアンネットワークを用いたヒューマンエージェントインタラクションのモデル化,” 第21回人工知能学会全国大会, 2D5-9, 2007.
  30. 中野有紀子, 榎本美香, 村田和義, 有本泰子, 朝康博, 佐川浩彦, “コーパスに基づくマルチモーダル対話モデルの構築に向けて,” 電子情報通信学会ヴァーバル・ノンヴァーバルコミュニケーション研究会, 2007. 3. 24.
  31. 村田和義, 中野有紀子, 榎本美香, 有本泰子, 朝康博, 佐川浩彦, “ベイジアンネットワークによるマルチモーダル対話の状態予測−ユーザとヘルプエージェントとの会話のモデル化を目指して−,” 電子情報通信学会ヒューマン情報処理研究会資料, 2007. 3. 23.
  32. 有本泰子, 大野澄雄, 飯田仁, “怒りの程度推定に向けた音響的特徴量の検討,” 日本音響学会2007年春季研究発表会講演論文集, 3-8-6, pp.235-236, 2007.
  33. 有本泰子, 大野澄雄, 飯田仁, “自然な対話中の感情表現に現れる音響的特徴の個人差の分析,” 日本音響学会2007年秋季研究発表会講演論文集, 1-8-16, pp.305-306, 2007.
  34. 有本泰子, 大野澄雄, 飯田仁, “「怒り」の感情表現とその言語表現‐音響的特徴の関係,” 言語処理学会第12回年次大会ワークショップ「感情・評価・態度 と言語」論文集, 1 巻, pp.53-56, 2006.
  35. 有本泰子, 大野澄雄, 飯田仁, “感情音声の収録と言語表現に現れる感情表現の分析,” 電子情報通信学会2006年総合大会講演論文集, pp.S42-S43, 2006.
  36. 榎本美香, 赤木康宏, 有本泰子, 村田和義, 朝康博, 佐川浩彦, 中野有紀子, “操作課題における情報授受のための行為者交替ルール Wizard-of-Oz 法を用いたヒューマン・エージェント会話実験を通じて,” 第1 回ヒューマンエージェントシンポジウム, 2006.12.13. [PDF]
  37. 有本泰子, 大野澄雄, 飯田仁, “決定木による「怒り」識別のための音響的特徴の検討と評価,” 日本音響学会2005年秋季研究発表会講演論文集, 1-6-2, pp.225-226, 2005.
  38. 有本泰子, 大野澄雄, 飯田仁, “「怒り」識別のための音声の特徴量の検討,” 人工知能学会研究会資料, SIG-SLUD-A303, pp.13-19, 2004.