Publications

学術論文

  1. Y. Arimoto, D. Oishi, M. Okubo, “A comparison between crowdsourcing and in-person listening tests on emotion rating for spontaneous screams and shouts,” Acoustical Science and Technology, vol., no., pp., doi: https://doi.org/10.1250/ast.e24.58, 2025. (in printing)
  2. Y. Arimoto, Y. Horiuchi, S. Ohno, “Determining the base frequency of the F0 contour generation model for the diverse expression of speech,” Acoustical Science and Technology, vol.46, no.1, pp., doi: https://doi.org/10.1250/ast.e24.05, 2025. (in printing)
  3. T. Matsuda, Y. Arimoto, “Acoustic differences between laughter and screams in spontaneous dialog,” Acoustical Science and Technology, vol.45, no.3, pp.135-146, doi: https://doi.org/10.1250/ast.e23.58, 2024.
  4. Y. Arimoto, Y. Murakami, K. Takeuchi, A. Hosoda, “Effect of Jōruri narrative on the body movement of the left puppeteer in Bunraku performance,” Bulletin of the Faculty of Liberal Arts at Teikyo University, vol.30, pp.146-178, 2023.[PDF]
  5. Y. Arimoto, “Phonetic analysis on speech-laugh occurrence in a spontaneous gaming dialog,” Acoustical Science and Technology, vol.44, no.1, pp.36-39, doi: https://doi.org/10.1250/ast.44.36, 2023.
  6. 有本泰子, 今西利於, 森大毅, “自然で表現豊かな笑い声合成に向けた感情情報からの笑い声の構成要素決定法,” 情報処理学会論文誌, vol.63, no.4, pp.1159-1169, 2022. [PDF]
  7. 永岡篤, 森大毅, 有本泰子, “感情音声コーパス共通化のための新たな感情ラベル推定における既存感情ラベル併用の効果,” 日本音響学会誌, vol.73, No.11, pp.682-693, 2017.
  8. Y. Arimoto and K. Okanoya, “Multimodal features for automatic emotion estimation during face-to-face conversation,” Journal of Phonetic Society of Japan, vol. 19, no. 1, pp. 53-67, 2015. [PDF]
  9. Y. Arimoto and K. Okanoya, “Mutual emotional understanding in a face-to-face communication environment: How speakers understand and react to listeners’ emotion in a game task dialog,” Acoustical Science and Technology, vol. 36, no. 4, pp. 370-373, 2015. [PDF]
  10. Y. Arimoto, H. Kawatsu, S. Ohno, and H. Iida, “Naturalistic emotional speech collection paradigm with online game and its psychological and acoustical assessment,” Acoustical Science and Technology, vol. 33, no. 6, pp. 359-369, 2012. [PDF]
  11. Y. Arimoto, S. Ohno, and H. Iida, “Assessment of spontaneous emotional speech database toward emotion recognition: Intensity and similarity of perceived emotion from spontaneously expressed emotional speech,” Acoustical Science and Technology, vol. 32, no. 1, pp. 26-29, 2011. [PDF]
  12. 有本泰子, 大野澄雄, 飯田仁, “「怒り」の発話を対象とした話者の感情の程度推定法,” 自然言語処理, vol. 14, no. 3, pp. 147-163, 2007. [PDF]
  13. 飯田仁, 有本泰子, “音響的特徴と言語的特徴をパラメータ化して統合的に扱う感情表現の程度推定手法,” 語用論研究, no. 8, pp. 33-46, 2006. [PDF]

国際会議

  1. R. Setoguchi and Y. Arimoto, “Acoustical analysis of the initial phones in speech-laugh,” in Proceedings of Interspeech2024, pp.3170-3174, doi: 10.21437/Interspeech.2024-268, 2024.
  2. T. Matsuda and Y. Arimoto, “Detection of laughter and screaming using the attention and CTC models,” in Proceedings of Interspeech2023, pp.1025-1029, doi: 10.21437/Interspeech.2023-1412, 2023.
  3. M. Fukuda and Y. Arimoto, “Physiological Study on the Effect of Game Events in Response to Player’s Laughter,” in Proceedings of Asia Pacific Signal and Information Processing Association Annual Summit and Conference 2022 (APSIPA ASC 2022), pp.1961-1969, doi: 10.23919/APSIPAASC55919.2022.9979868, 2022.
  4. T. Matsuda and Y. Arimoto, “Acoustic discriminability of unconscious laughter and scream during game-play,” in Proceedings of Speech Prosody 2022, pp. 575-579, doi: 10.21437/SpeechProsody.2022-117, 2022.
  5. H. Mori, T. Nagata, and Y. Arimoto, “Conversational and Social Laughter Synthesis with WaveNet,” in Proceedings of Interspeech 2019, pp. 520-523, doi: 10.21437/Interspeech.2019-2131, 2019. [PDF]
  6. Y. Arimoto,Y. Horiuchi, and S. Ohno, “Consistency of base frequency labelling for the F0 contour generation model using expressive emotional speech corpora,” in Proceedings of Speech Prosody 2018, pp. 398-402, 2018. [PDF]
  7. Y. Arimoto, “Challenges of Building an Authentic Emotional Speech Corpus of Spontaneous Japanese Dialog,” in special speech session in The International Conference on Language Resources and Evaluation (LREC2018), pp. 6-13, 2018. [PDF]
  8. Y. Arimoto and H. Mori, “Emotion category mapping to emotional space by cross-corpus emotion labeling,” in Proceedings of Interspeech 2017, pp. 3276-3280, 2017. [PDF]
  9. Y. Arimoto and K. Okanoya, “Comparison of Emotional Understanding in Modality-controlled Environments using Multimodal Online Emotional Communication Corpus,” in Proceedings of The International Conference on Language Resources and Evaluation (LREC2016), pp. 2162-2167, 2016. [PDF]
  10. H. Mori and Y. Arimoto, “Accuracy of Automatic Cross-Corpus Emotion Labeling for Conversational Speech Corpus Commonization,” in Proceedings of The International Conference on Language Resources and Evaluation (LREC2016), pp. 4019-4023, 2016. [PDF]
  11. Y. Arimoto and K. Okanoya, “Emotional synchrony and covariation of behavioral/physiological reactions between interlocutors,” in Proceedings of the 17th Oriental COCOSDA (International Committee for the Co-ordination and Standardization of Speech Databases and Assessment Techniques) Conference 2014, pp. 100-105, 2014. [PDF]
  12. Y. Arimoto and K. Okanoya, “Individual differences of emotional expression in speaker’s behavioral and autonomic responses,” in Proceedings of Interspeech 2013, pp. 1011-1015, 2013. [PDF]
  13. Y. Arimoto and K. Okanoya, “Dimensional Modeling of Perceptual Difference of Multimodal Emotion Perception,” in Proceedings of the Workshops of the 9th international conference on the Evolution of Language, pp. 45-46, 2012.
  14. Y. Arimoto and K. Okanoya, “Dimensional Mapping of Multimodal Integration on Audiovisual Emotion Perception,” in Proceedings of the international conference on Audio-Visual Speech Processing 2011, pp. 89-94, 2011. [PDF]
  15. Y. Arimoto, H. Kawatsu, S. Ohno, and H. Iida, “Emotion recognition in spontaneous emotional speech for anonymity-protected voice chat systems,” in Proceedings of Interspeech 2008, pp. 322-325, 2008. [PDF]
  16. Y. Arimoto, S. Ohno, and H. Iida, “Study on voice quality parameters for anger degree estimation,” 2702, in Proceedings of Acoustics08, 2008.
  17. Y. Arimoto, S. Ohno, and H. Iida, “Automatic Emotional Degree Labeling for Speakers’ Anger Utterance during Natural Japanese Dialog,” in Proceedings of The International Conference on Language Resources and Evaluation (LREC2008), pp. 2279–2284, 2008. [PDF]
  18. Y. Nakano, K. Murata, M. Enomoto, Y. Arimoto, Y. Asa, and H. Sagawa, “Modeling Human-Agent Interaction Using Bayesian Network Technique,” In K. Satoh, A. Inokuchi, K. Nagao, & T. Kawamura (Eds.), New Frontiers in Artificial Intelligence, Springer Berlin Heidelberg, pp. 5–12, 2008.
  19. K. Murata, M. Enomoto, Y. Arimoto, and Y. Nakano, “When Should Animated Agents Give Additional Instructions to Users? – Monitoring user’s understanding in multimodal dialogues -,” in Proceedings of International Conference on Control, Automation and Systems (ICCAS 2007), pp. 733-736, 2007.
  20. Y. I. Nakano, K. Murata, M. Enomoto, Y. Arimoto, Y. Asa, and H. Sagawa, “Predicting Evidence of Understanding by Monitoring User’s Task Manipulation in Multimodal Conversations,” in Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics (ACL2007) Demo and Poster Sessions, pp 121-124, 2007.
  21. Y. Arimoto, S. Ohno, and H. Iida, “Acoustic Features of Anger Utterances during Natural Dialog,” in Proceedings of Interspeech2007, pp.2217-2220, 2007. [PDF]
  22. Y. Arimoto, S. Ohno, and H. Iida, “Emotion Labeling for Automatic Estimation of Speakers’ Anger Emotion Degree,” in Proceedings of Oriental COCOSDA (The International Committee for the Co-ordination and Standardization of Speech Databases and Assessment Techniques) Workshop 2006, 19_jp, pp.48-51, 2006.
  23. Y. Arimoto, S. Ohno, and H. Iida, “A method for estimating the degree of a speaker’s anger using acoustic features and linguistic representation,” in Proceedings of Fourth Joint Meeting of ASA and ASJ, 1pSC44, 2006.
  24. H. Iida, and Y. Arimoto, “One-word Utterance Pragmatics and Emotional Speech Intention,” in Proceedings of International Conference on Multidisciplinay Information Sciences and Technologies (InSciT2006), Vol. II, pp.142-146, Merida, Spain, 2006.
  25. Y. Arimoto, S. Ohno, and H. Iida, “A Method for Discriminating Anger Utterances from Other Utterances using Suitable Acoustic Features,” in Proceedings of International Conference on Speech and Computer (SPECOM2005), pp.613-616, 2005.

招待講演

  1. 有本泰子, “情動発声研究のその先に:笑い声・叫び声の認識・合成,そしてインタラクション,” 日本音響学会2023年秋季研究発表会講演論文集, pp.1531-1534, 2023.
  2. [パネリスト] 有本泰子, “オンライン時代の感情コミュニケーション,” 第12回産業日本語研究会・シンポジウム パネルディスカッション, 2021.
  3. 有本泰子, “表現豊かな音声に対する感情の理解,” 一般社団法人電子情報技術産業協会(JEITA)IT-4012・話し方種別ガイドライン講演会, 2019.
  4. Y. Arimoto, “Challenges of Building an Authentic Emotional Speech Corpus of Spontaneous Japanese Dialog,” in special speech session in The International Conference on Language Resources and Evaluation (LREC2018), pp. 6-13, 2018. [PDF]
  5. 有本泰子, “感情音声コーパスの構築と利用:いかにして生の感情を対象に研究を行うか,” 音声資源活用シンポジウム2017, 国立国語研究所, 2017.
  6. 有本泰子, “コミュニケーション場面におけるリアルな感情表出の分析,” 日本音響学会2015年秋季研究発表会講演論文集, pp. 1317-1320, 2015.
  7. 有本泰子, “対話場面におけるマルチモーダル感情コミュニケーション,” ヒューマンストレス産業技術研究会第27回講演会, 2014.

書籍・解説

  1. 有本泰子, “コーパス使いますか?作りますか? —感情音声分析のためのコーパス構築—,” 日本音響学会誌, vol.79, no.1, pp.64-71, doi: 10.20697/jasj.79.1_64, 2023.
  2. 有本泰子, “感情音声の分析,” 音響キーワードブック, 日本音響学会 編, 株式会社コロナ社, 東京, pp. 158-159, 2016. (ISBN 978-4-339-00880-7)
  3. 有本泰子, “コミュニケーション場面における感情表出,” 生物の科学 遺伝, no. 6, 株式会社エヌ・ティー・エス, 東京, pp. 674-678, 2013.
  4. Y. Arimoto, S. Ohno, and H. Iida, “Emotion labeling for automatic estimation of the speakers’ angry intensity,” in Computer Processing of Asian Spoken Languages, S. Itahashi and C. Tseng, Eds. Los Angeles: Americas Group Publications, 2010, Chapter 6, Section 2, Part 4, pp. 292–295. (ISBN 978-0-935047-72-1)

国内発表

  1. 白鳥恵大, 有本泰子, “話者変換された叫び声に対する話者類似性評価,” 情報処理学会 第262回自然言語処理・第154回音声言語情報処理合同研究発表会, vol., no., pp., 2024. (to appear)
  2. 木澤妃名子, 有本泰子, “対話相手の笑い声に誘発された共起笑い時の生理反応の分析,” 電子情報通信学会技術研究報告, vol.124, no.161, HCS2024-44, pp.55-60, 2024.
  3. 有本泰子, 橋本直樹, 細田明宏, “文楽人形遣いの協調動作におけるホドの解明に向けた映像アノテーション分析,” 電子情報通信学会技術研究報告, vol.124, no.161, HCS2024-53, pp.108-113, 2024.
  4. 有本泰子, 神津宏尚, “日常会話コーパスを利用したspeech-laughの冒頭音素の対話ドメイン比較,” 国立国語研究所「日常会話コーパス」シンポジウム IX, 2024.
  5. 瀬戸口遼, 有本泰子, “メルケプストラムを利用したspeech-laugh冒頭音素の音響分析,” 日本音響学会2024年春季研究発表会講演論文集, pp.731-732, 2024.
  6. 大石暖, 大久保港, 有本泰子, “クラウドソーシングを利用した叫び声に対する感情次元評価,” 日本音響学会2024年春季研究発表会講演論文集, pp.1055-1056, 2024.
  7. 岩立直也, 有本泰子, “次話者指定の有無を区別するTRPを利用した3人会話場面の話者交替予測モデル,” 人工知能学会言語・音声理解と対話処理研究会(SIG-SLUD)第100回研究会,SIG-SLUD-100-27, pp.27-32, 2024.
  8. 飯田真広, 有本泰子, “共起笑いの音響分析と生理反応への影響,” 日本音響学会音声研究会(ASJ-SP)資料, SP-2024-5, Vol.4, No.1, pp.25-31, 2024.
  9. 松田匠翔, 有本泰子, “wav2vec 2.0 を用いた笑い声・叫び声検出が可能な音声認識,” 日本音響学会音声研究会(ASJ-SP)資料, SP-2024-4, Vol.4, No.1, pp.19-24, 2024.
  10. 倉澤瑞, 福田樹人, 有本泰子, “笑い声に応答するゲームシステムの開発に向けたイベント呈示の生理学的評価,” 人工知能学会言語・音声理解と対話処理研究会(SIG-SLUD)第99回研究会「第14回対話システムシンポジウム」, SIG-SLUD-099-29, pp.154-159, 2023.
  11. 瀬戸口遼, 有本泰子, “speech-laugh の発生機序解明に向けた冒頭母音の音響分析,” 日本音響学会2023年秋季研究発表会講演論文集, pp.1391-1392, 2023.
  12. 松田匠翔, 有本泰子, “自発的な笑い声と叫び声が検出可能なEnd-to-End 音声認識の検討,” 日本音響学会2023年秋季研究発表会講演論文集, pp.1545-1548, 2023.
  13. 有本泰子, “情動発声研究のその先に:笑い声・叫び声の認識・合成,そしてインタラクション,” 日本音響学会2023年秋季研究発表会講演論文集, pp.1531-1534, 2023.
  14. 松田匠翔, 有本泰子, “Attention 及びCTCに基づく笑い声/叫び声検出モデルの比較,” 情報処理学会 音声言語情報処理(SLP) 音学シンポジウム2023, Vol.2023-SLP-137, No.39, pp.1-6, 2023.
  15. 白鳥恵大, 有本泰子, “低資源な叫び声合成に対するデータ拡張方法の影響,” 情報処理学会 音声言語情報処理(SLP) 音学シンポジウム2023, Vol.2023-SLP-137, No.7, pp.1-6, 2023.
  16. 福田樹人, 有本泰子, “笑い/非笑い条件下で生成される仮想世界のリアクションがゲームプレイヤーに与える効果の検証,” 人工知能学会言語・音声理解と対話処理研究会(SIG-SLUD), SIG-SLUD-097, pp.92-97, 2023.
  17. 白鳥恵大, 有本泰子, “話者変換によるデータ拡張を利用した叫び声合成,” 日本音響学会2023年春季研究発表会講演論文集, pp.767-768, 2023.
  18. 有本泰子, 福田樹人, 松田匠翔, 白鳥恵大, 飯田真広, 市野澤太陽, 瀬戸口遼, 森山将朝, 八木田怜, “Multimodal corpus of spontaneous affective interaction during gameplay (MSAI)の構築に向けたAffect Burstアノテーション,” 国立国語研究所シンポジウム「日常会話コーパス」VIII, 2023.
  19. 福田樹人, 有本泰子, “笑うプレイヤーを仮想世界に惹きつけるゲームイベントの検討 -生理反応を用いた客観評価-,” 人工知能学会言語・音声理解と対話処理研究会(SIG-SLUD), SIG-SLUD-095-12, pp.65–70, 2022.
  20. 松田匠翔, 有本泰子, “BiLSTM-CTC モデルを使用した自発的な笑い声と叫び声のEnd-to-End検出モデルの構築,” 日本音響学会2022年秋季研究発表会講演論文集, pp.1357–1358, 2022.
  21. 大久保港, 井岸渉, 有本泰子, “感情知覚特性に基づいた自発的な叫び声の分類と音響的特徴量の関係,” 日本音響学会2022年秋季研究発表会講演論文集, pp.1179–1182, 2022.
  22. 白鳥恵大, 大久保港, 松田匠翔, 有本泰子, “自発対話音声に対する叫び声アノテーション,” 言語資源ワークショップ2022, p4-8s, pp.365−374, doi: 10.15084/00003751, 2022.
  23. 有本泰子, 真弓花, “様々な対話場面におけるspeech-laughの発生タイミングの分析,” 言語資源ワークショップ2022, p3-8, 2022.
  24. 阿部将士, 有本泰子, “Speech laugh が発生しやすい調音に関する対話ドメイン依存性の検証,” 日本音響学会2022年春季研究発表会講演論文集, pp.803-804, 2022.
  25. 土井敦也, 有本泰子, “WaveNetによる叫び声合成の実現に向けたコンテキストラベルの検討,” 日本音響学会2022年春季研究発表会講演論文集, pp.951-952, 2022.
  26. 松田匠翔, 有本泰子, “CNN-LSTM モデルを使用したゲーム場面の笑い声と叫び声検出モデルの構築,” 日本音響学会2022年春季研究発表会講演論文集, 963-964, 2022.
  27. 福田樹人, 有本泰子, “プレイヤーの無意識な笑い声に対して生成されるゲームイベントの効果に関する生理心理学的検証,” 電子情報通信学会HCGシンポジウム2021論文集, HCG2021-A-1-2, 2021.
  28. 松田匠翔, 有本泰子, “ゲーム場面の笑い声・叫び声に対する音響的識別可能性の検証,” 日本音響学会2021年秋季研究発表会講演論文集, pp.935-936, 2021.
  29. 有本泰子, 阿部将士, 津田逸成, “Speech laughが発生しやすい調音に関する音声学的分析,” 日本音響学会2021年秋季研究発表会講演論文集, pp.817-818, 2021.
  30. 有本泰子, 竹内風音, 細田明宏, “文楽人形の演技における聴覚情報の影響,” 電子情報通信学会HCGシンポジウム2020論文集, HCG2020-I-2-4, 2020.
  31. 有本泰子, 深津多聞, “現実世界における無意識な感情表出に対して生成されるゲームイベントの効果,” 電子情報通信学会HCGシンポジウム2020論文集, HCG2020-B-3-1, 2020.
  32. 今西利於, 小山俊樹, 有本泰子, “笑い声の感情次元知覚に対する呼気音・吸気音の影響,” 日本音響学会2020年秋季研究発表会講演論文集, pp. 787-788, 2020.
  33. 金子裕亮, 有本泰子, “発話区間検出を用いたゲーム中の叫び声識別とその評価,” 日本音響学会2020年秋季研究発表会講演論文集, pp. 699-670, 2020.
  34. 堀内靖雄, 有本泰子, 黒岩眞吾, “日本手話対のポーズと者交替分析.” 人工知能学会言語・音声理解と対話処理研究会(SIG-SLUD), vol. B5, no. 03, pp. 1–6, 2020.
  35. クー ユエン, 有本泰子, “ゲームプレイ中の笑い声検出モデルの構築,” 日本音響学会2020年春季研究発表会講演論文集, pp. 1005-1006, 2020.
  36. 金子裕亮, 有本泰子, “音響的特徴量によるゲームプレイ中の叫び声の識別,” 日本音響学会2020年春季研究発表会講演論文集, pp. 995-996, 2020.
  37. 小山俊樹, 有本泰子, “ゲームプレイ中に表出した社会的な笑い声のラベリングとその音響分析,” 日本音響学会2020年春季研究発表会講演論文集, pp. 827-828, 2020.
  38. クー ユエン, 加茂直樹, 有本泰子, “音響的特徴量によるゲームプレイ中の笑い声分類モデルの構築,” 日本音響学会2019年秋季研究発表会講演論文集, pp. 883−884, 2019.
  39. 有本泰子, クー ユエン, 小山俊樹, 金子裕亮, “Affect Burst検出に向けた笑い声および叫び声ラベリングとその音響分析に関する予備的検討,” 電子情報通信学会技術研究報告, vol. 119, no. 179, HCS2019-29, pp. 1-5, 2019.
  40. 渡辺博芳, 荒井正之, 佐々木茂, 盛拓生, 古川文人, 水谷晃三, 眞坂美江子, 塩野目剛亮, 高井久美子, 有本泰子, “汎用的能力評価のためのルーブリックとチェックリストの提案,” 情報教育シンポジウム論文集, no. 2019, pp. 30–37, 2019.
  41. 有本泰子, 野村直人, 加茂直樹, “キャラクターエージェントに対する他者性認知の客観的評価,” 日本音響学会2019年春季研究発表会講演論文集, pp. 813-817, 2019.
  42. 有本泰子, 森大毅, “対話中に表出した笑い声の声質分析,” 日本音響学会2018年秋季研究発表会講演論文集, pp. 879-880, 2018.
  43. 森大毅, 永田智洋, 有本泰子, “WaveNetによる笑い声の合成,” 日本音響学会2018年秋季研究発表会講演論文集, pp. 1133-11134, 2018.
  44. 有本泰子, “感情知覚に対するセンシティビティが異なる評価者群による感情評定値の比較,” 日本音響学会2018年春季研究発表会講演論文集, pp. 1347-1348, 2018.
  45. 森大毅, 有本泰子, 永田智洋, “複数の会話コーパスを対象とした笑い声イベントのアノテーション,” 日本音響学会2017年秋季研究発表会講演論文集, pp. 217-218, 2017.
  46. 佐久間結,堀内靖雄,有本泰子,大野澄雄,黒岩眞吾, “藤崎モデルのパラメータ推定におけるマイクロプロソディ除去による効果の検討,” 日本音響学会2017年秋季研究発表会講演論文集, pp. 221-222, 2017.
  47. 横山雅季, 有本泰子, 森大毅, “対話音声の感情認識における音響的特徴と言語的特徴の効果,” 日本音響学会2017年春季研究発表会講演論文集, pp. 341-342, 2017.
  48. 有本泰子, 森大毅, “クロスコーパスラベリングによる感情空間への感情カテゴリのマッピング -音声知覚および音響分析による検討-,” HCGシンポジウム2016論文集, pp. 456-461, 2016.
  49. 有本泰子, 森大毅, “音声からの知覚による感情カテゴリと感情次元の関係,” 日本音響学会2016年秋季研究発表会講演論文集, pp. 219-222, 2016.
  50. 有本泰子, 森大毅, “クロスコーパス感情ラベリングによる対話音声の比較,” 日本音響学会2016年春季研究発表会講演論文集, pp.359-360, 2016.
  51. 有本泰子, 堀内靖雄, 大野澄雄, “発話の基本周波数分布にもとづく藤崎モデル基底周波数の決定手法,” 日本音響学会2015年秋季研究発表会講演論文集, pp. 243-244, 2015.
  52. 永岡篤, 森大毅, 有本泰子, “複数の対話音声コーパスにおける感情ラベルの相互推定,” 日本音響学会2015年春季研究発表会講演論文集, pp.415–416, 2015.
  53. 有本泰子, 江田康太郎, 菊池英明, 岡ノ谷一夫, “オンラインコミュニケーションにおけるモダリティ統制下の情動理解,” 日本音響学会2014年秋季研究発表会講演論文集, pp.385-386, 2014.
  54. 有本泰子, 岡ノ谷一夫, “対話者の生理反応を利用したマルチモーダル感情推定,” 日本音響学会2014年春季研究発表会講演論文集, pp.457-458, 2014.
  55. 有本泰子, 川村剛, 岡ノ谷一夫, “対話者による情動理解の妥当性,” 日本音響学会2013年秋季研究発表会講演論文集, pp.261-262, 2013.
  56. 有本泰子, 河津宏美, “音声チャットを利用したオンライゲーム感情コーパス” 日本音響学会2013年秋季研究発表会講演論文集, pp.385-388, 2013.
  57. 有本泰子, 岡ノ谷一夫, “情動の同調・非同調時における表出行動と生理反応の同期,” 日本音響学会2013年春季研究発表会講演論文集, pp.411-412, 2013.
  58. 有本泰子, 岡ノ谷一夫, “表出行動・生理反応を利用した話者の感情表出スタイルの分類,” 第2回日本情動学会大会, 2012.
  59. 有本泰子, 岡ノ谷一夫, “表出行動・生理反応を利用した話者の感情表出スタイルの分類,” HCGシンポジウム2012論文集, pp.408-413, 2012.
  60. 有本泰子, 岡ノ谷一夫, “対話者間の情動の同調・非同調時における音響的特徴と生理反応の同期,” 日本音響学会2012年秋季研究発表会講演論文集, 3-Q-23, pp. 411–412, 2012.
  61. 有本泰子, 岡ノ谷一夫, “マルチモーダル知覚情報の感情空間へのマッピング,” 日本音響学会2011 年秋季研究発表会講演論文集, 3-Q-12, pp.379-382, 2011.
  62. 有本泰子, 岡ノ谷一夫, “音声・表情による感情表現と知覚される混合感情との関係,” 日本音響学会2011 年春季研究発表会講演論文集, 2-P-33(a), pp.447-448, 2011.
  63. 有本泰子, 大野澄雄, 飯田仁, “怒りの程度の時間変化量を推定する音響的特徴量の検討,” 日本音響学会2009 年春季研究発表会講演論文集, 2-P-20, pp.493-494, 2009.
  64. 有本泰子, 河津宏美, 大野澄雄, 飯田仁, “感情音声のコーパス構築と音響 的特徴の分析 – MMORPG における音声チャットを利用した対話中に表れた感情の識別 -,” 情報処理学会第70 回音声言語情報処理研究会(SIG-SLP)研究報告, pp.133-138, 2008.[PDF]
  65. 河津宏美, 有本泰子, 大野澄雄, “感情情報を伝達する匿名音声チャットの開発,” 2008年電子情報通信学会総合大会 情報・システム講演論文集1, D-14-3, pp.176, 2008.
  66. 有本泰子, 大野澄雄, 飯田仁, “声質に着目した「怒り」の音声の音響分析,” 日本音響学会2008 年春季研究発表会講演論文集, 1-11-8, pp.257-258, 2008.
  67. 中野有紀子, 村田和義, 榎本美香, 有本泰子, 朝康博, 佐川浩彦, “ベイジアンネットワークを用いたヒューマンエージェントインタラクションのモデル化,” 第21回人工知能学会全国大会, 2D5-9, 2007.
  68. 中野有紀子, 榎本美香, 村田和義, 有本泰子, 朝康博, 佐川浩彦, “コーパスに基づくマルチモーダル対話モデルの構築に向けて,” 電子情報通信学会ヴァーバル・ノンヴァーバルコミュニケーション研究会, 2007. 3. 24.
  69. 村田和義, 中野有紀子, 榎本美香, 有本泰子, 朝康博, 佐川浩彦, “ベイジアンネットワークによるマルチモーダル対話の状態予測−ユーザとヘルプエージェントとの会話のモデル化を目指して−,” 電子情報通信学会ヒューマン情報処理研究会資料, 2007. 3. 23.
  70. 有本泰子, 大野澄雄, 飯田仁, “怒りの程度推定に向けた音響的特徴量の検討,” 日本音響学会2007年春季研究発表会講演論文集, 3-8-6, pp.235-236, 2007.
  71. 有本泰子, 大野澄雄, 飯田仁, “自然な対話中の感情表現に現れる音響的特徴の個人差の分析,” 日本音響学会2007年秋季研究発表会講演論文集, 1-8-16, pp.305-306, 2007.
  72. 有本泰子, 大野澄雄, 飯田仁, “「怒り」の感情表現とその言語表現‐音響的特徴の関係,” 言語処理学会第12回年次大会ワークショップ「感情・評価・態度 と言語」論文集, 1 巻, pp.53-56, 2006.
  73. 有本泰子, 大野澄雄, 飯田仁, “感情音声の収録と言語表現に現れる感情表現の分析,” 電子情報通信学会2006年総合大会講演論文集, pp.S42-S43, 2006.
  74. 榎本美香, 赤木康宏, 有本泰子, 村田和義, 朝康博, 佐川浩彦, 中野有紀子, “操作課題における情報授受のための行為者交替ルール Wizard-of-Oz 法を用いたヒューマン・エージェント会話実験を通じて,” 第1 回ヒューマンエージェントシンポジウム, 2006.12.13. [PDF]
  75. 有本泰子, 大野澄雄, 飯田仁, “決定木による「怒り」識別のための音響的特徴の検討と評価,” 日本音響学会2005年秋季研究発表会講演論文集, 1-6-2, pp.225-226, 2005.
  76. 有本泰子, 大野澄雄, 飯田仁, “「怒り」識別のための音声の特徴量の検討,” 人工知能学会研究会資料, SIG-SLUD-A303, pp.13-19, 2004.