表彰等

2023年度基礎研究賞

2023年度基礎研究賞の授与について

日本ソフトウェア科学会は, ソフトウェア科学分野の基礎研究において顕著な業績を挙げた研究者に対して基礎研究賞を授与し, その功績を称える制度を2008年度に設けた. 2023年度には, ソフトウェア分野におけるその他の顕著な業績を挙げた者に対して業績賞を授与しその功績を称える制度を設け, 基礎研究賞とあわせて毎年2件程度を選定することとした. 2023年度は, 基礎研究賞・業績賞選定委員会の審議結果を受け, 2024年5月20日の役員会において, 以下の2名に基礎研究賞を授与することを決定した.
選定委員会の構成は次の通りである.
高田広章 (理事長), 河野健二 (編集委員長),
五十嵐健夫, 井上克郎, 大須賀昭彦, 増原英彦, 丸山宏

松本健一氏 (奈良先端科学技術大学院大学)

授賞業績:
ソフトウェア工学, 特に実証的ソフトウェア工学に関する研究
授賞理由:
松本健一氏は長年にわたりソフトウェアのバグ予測の研究を続けてきており, 数多くの重要な研究成果を発表してきている. その中のひとつとして, バグの発生予測を行う判別モデルの研究がある. この分野では, 今まで数多くの研究が行われてきているが, モデルのパラメータの調整が難しいためほとんどがデフォルト値を用いて研究が行われていた. 松本健一氏は, 最適なパラメータの自動生成アルゴリズムを開発し, 判別モデルの性能を大きく向上させることに成功した[1][2]. また, バグ発生予測モデルの評価方法の検証に関する重要な研究も行っている. 過去の多くの研究では単純な single-repetion holdout 法が用いられているが, この方法はバイアスや変動が大きく安定しないことを示し, out-of-sample bootstrap 法の利用が推奨されるべきであることを示した[3]. さらに, コードレビューを行うべき適切な開発者を発見する手法の開発も行っている. この手法は, 過去にレビューされたファイルのパスの類似性を利用して適切な開発者の特定を行っており, 実証実験により正確に開発者の特定を行えることを示した[4]. 松本健一氏は, 早くから海外の研究者との連携を積極的に進めて数多くの留学生やインターン生を受け入れ, これらの実証的ソフトウェア工学の研究を強力に推進する体制を築いてきており, ソフトウェア工学の研究推進に多大な貢献をしてきた. 以上の顕著な業績と貢献により, 日本ソフトウェア科学会は, 松本健一氏に基礎研究賞を授与することとした.
出典:

[1] Chakkrit Tantithamthavorn, Shane McIntosh, Ahmed E. Hassan, Kenichi Matsumoto: Automated parameter optimization of classification techniques for defect prediction models. ICSE 2016: 321-332.

[2] Chakkrit Tantithamthavorn, Shane McIntosh, Ahmed E. Hassan, Kenichi Matsumoto: The Impact of Automated Parameter Optimization on Defect Prediction Models. IEEE Trans. Software Eng. 45(7): 683-711 (2019).

[3] Chakkrit Tantithamthavorn, Shane McIntosh, Ahmed E. Hassan, Kenichi Matsumoto: An Empirical Comparison of Model Validation Techniques for Defect Prediction Models. IEEE Trans. Software Eng. 43(1): 1-18 (2017).

[4] Patanamon Thongtanunam, Chakkrit Tantithamthavorn, Raula Gaikovina Kula, Norihiro Yoshida, Hajimu Iida, Ken-ichi Matsumoto: Who should review my code? A file location-based code-reviewer recommendation approach for Modern Code Review. SANER 2015: 141-150.


小池英樹氏 (東京工業大学)

授賞業績:
Vision-based Human-Computer Interactionに関する研究
授賞理由:
小池英樹氏は長くにわたり Human-Computer Interaction, 特に Vision-based HCI に従事し国内外で多くの成果を挙げてきた. フラクタルの概念を用いた大規模情報提示手法[1]では日本ソフトウェア科学会高橋奨励賞を受賞した. インタラクティブサーフェスに関する数多くの先進的研究を行い, EnhancedDesk[2]では実時間手指認識および実物体と電子情報の融合, 液晶の偏向に着目した透明マーカー[2]や圧力検知可能な3次元タッチディスプレイ PhotoelasticTouchj を開発, 水面へのプロジェクションと手指認識を組み合わせた AquaTop Display では国際展示会 Laval Virtual で Grand Prix を受賞した. 近年はコンピュータビジョンと拡張現実を用いた技能獲得支援のための基盤・応用システムを研究し, 胸装着カメラによる身体・頭部姿勢認識[4], 腕装着カメラによる手指姿勢認識[5], 細径人工筋肉を用いた力覚フィードバックグローブ[6]を実現した. 小池氏は国際会議 ACM Interactive Surface and Systems や Augmented Humans の Steering Committee や General Chair 等を務め, 国内では日本ソフトウェア科学会 WISS を立ち上げ, インタラクティブシステムとソフトウェア研究会 (ISS: Special Interest Group on Interactive Systems and Software) の主査をはじめ国内外の HCI 界をリードしてきた. 以上の顕著な業績と貢献により, 日本ソフトウェア科学会は, 小池英樹氏に基礎研究賞を授与することとした.
出典:

[1] Hideki Koike : Fractal Views: A Fractal-Based Method for Controlling Information Display, ACM Trans. on Information Systems, Vol.13, No.3, pp.305-323, 1995.

[2] Hideki Koike, Yoichi Sato, Yoshinori Kobayashi, Integrating paper and digital information on EnhancedDesk: a method for real-time finger tracking on augmented desk system, ACM Trans. On Computer Human Interaction, Vol.8, Issue 4, pp.307-322, 2001.

[3] Hideki Koike, Wataru Nishikawa, Kentaro Fukuchi, Transparent 2-D Markers on an LCD Tabletop System, ACM Human Factors in Computing Systems (CHI 2009), pp.163-172, 2009.

[4] Dong-Hyun Hwang, Kohei Aso, Ye Yuan, Kris Kitani, Hideki Koike, MonoEye: Multimodal Human Motion Capture System Using A Single Ultra-Wide Fisheye Camera, ACM User Interface Software and Technology (UIST2020), pp.98-111, 2020.

[5] Erwin Wu, Ye Yuan, Hui-Shyong Yeo, Aaron Quigley, Hideki Koike, Kris M. Kitani, Back-Hand-Pose: 3D Hand Pose Estimation for a Wrist-worn Camera via Dorsum Deformation Network, ACM User Interface Software and Technology (UIST2020), pp.1147-1160, 2020.

[6] N. Takahashi, S. Furuya and H. Koike, Soft Exoskeleton Glove with Human Anatomical Architecture: Production of Dexterous Finger Movements and Skillful Piano Performance, in IEEE Transactions on Haptics. Vol.13, Issue 4, pp.679-690, 2020. (IEEE Transactions on Haptics Best Application Paper)