理系ろう学生の集い 理系ろう学生の集い
 2015年度  
 2014年度  
 2013年度  
 2012年度  

←2015年度のページに戻る

2015年11月17日


(画像:文献[1]より引用)

はじめに

 みなさま、こんにちは。情報科学(主にコンピュータビジョン/パターン認識)の研究に従事しているコンと申します。今回は、ノーベル賞のパロディである「イグ・ノーベル賞」について紹介させていただきます。「イグ・ノーベル賞」は 毎年、ノーベル賞のシーズンに発表されている賞であり、選考・評価基準は「人々を笑わせ、そして考えさせてくれた」というものです。日本人はこの賞の常連であり、快挙にいとまがありません。主な受賞題目には、「医学賞:足のにおいの原因となる化学物質の研究」、「経済学賞:『たまごっち』の開発により、数百万人の労働時間を仮想ペットの飼育に費やさせた業績」などが挙げられます。
 ユーモラスな面が注目されているイグ・ノーベル賞ですが、2015年に文学賞を受賞した研究の論文をじっくり読んでみたところ、非常に面白く興味深い研究でした。そこで、今回はこの研究を紹介したいと思います。

イグ・ノーベル賞 文学賞の概要

 今回紹介するのは、文献[1]、すなわち以下の研究です。

Mark Dingemanse, et.al. "Is “Huh?” a Universal Word? Conversational Infrastructure and the Convergent Evolution of Linguistic Items"
(訳:「はぁ?」に相当する感嘆詞があらゆる言語に存在する事実の発見)

 タイトルから、なかなかユニークな研究であることが伝わってきます。未知の言語を自分に分かる言葉に翻訳する作業は、基本的に難しいものですが、もし、言語間でほとんど意味が変わらず、シンプルに翻訳できる単語があれば、それを手がかりに言語を解析したりコミュニケーションを取ることが可能です。そこで、Markらの研究チームは、世界中のほぼ全ての言語を内包する10の異なる言語を対象に、次のようなことを行いました。

 1)実験対象の言語を利用する人に対し,不明瞭な発音で話しかける。
 2)その時の相手の反応(表情、声)を記録する。
 3)声の高さや唇の動きなどをもとに、反応を分析する。

 その結果、今回検証を行った全ての言語において、相手が何と言ったのか分からない時に発する「Huh? (はぁ?)」に相当する単語が存在する事を示したのです。そして、これらの言葉は発音も非常に近いという傾向が見られました(なお、その理由は不明とのことです)。
 この「言語の共通性」は何に活かすことができるのでしょうか? 文献[2]では、「音声言語の場合は文字が似ており、文法が第一言語に近いほど習得しやすい傾向にある」と報告されています。すなわち、新たな言語を習得するときに、習得済みの言語に共通する部分を学習に役立てることが期待できるのです。実際に、英語を母国語とする人は、文字も文法も全く異なる日本語より、文字も文法も似ているフランス語のほうが習得しやすいようです[2]。このように、文法や文字といった言語の共通性をもとに、新たな言語の取得に役立てることを、言語学の分野では「転移学習」といいます。

手話における言語の共通性

 ここまで、音声言語を対象とした「共通性」について考えてきました。ここで、「手話はどうなるんだろう?」という疑問を持つ方もいるのではないでしょうか。文献[1]では直接取り扱われていませんでしたが、「手話においては、眉の動きが共通している可能性があると予想される」と述べられていました。そこで、手話における言語の共通性について、簡単に調査をしてみました。その結果、いくつか興味深い事がわかったので報告します。
 まず、一つ目の共通性は「非手指動作」(NMS:Non-Manual Signals 眉の上げ下げや口型、視線、うなずきなど)です。文献[1]で述べられている「眉の動き」は、手話におけるNMSに該当するものであり、否定形や肯定形などの表現に用いられるものです。NMSは、意味は異なるものの世界の手話で用いられていることから、「手話に共通する文法要素」といわれています。
 つぎに、二つ目の共通性は「CL(CLassifier)」が挙げられます。CLは、「分類するもの」という意味を持ち、手話においては、同じ物体を示すものでも、物体の形状などによって手形や動きなどを変える表現を指します[3]。なお、CLは名詞にも形容詞にも動詞にも変化するものであり、音声言語には存在しない概念ということに留意ください。
 さいごに、三つめの共通性は「ジェスチャからの発展である」という点です。文献[5]では、McNeillの文献を引用し、「日本語と英語は全く違うにもかかわらずジェスチャは極めて類似(共通)している」という説明がされています。そして、手話は1970年代〜1980年代に誕生したニカラグア手話を代表とし、ジェスチャから発展した言語であると考えられています[4]。すなわち、手話はジェスチャをベースとしていることから、異なる手話言語間においても共通性が高いと考えられるのです。
 上記のように、手話の共通性には「NMS」「CL」「ジェスチャからの発展である」があり、この共通性により、「手話者が新たに言語を習得する際は、音声言語よりも手話の方が習得しやすい」、すなわち「音声言語よりも転移学習が容易である」という推測ができます。
 実際、日本の手話話者が海外のろう者とコミュニケーションを取る時も、英語を用いるよりも比較的簡単にコミュニケーションをとることができた、という話をよく聞きます(何を隠そう、自分もその一人です)。

パターン認識における「転移学習」

 ここまで使ってきた「転移学習」という言葉、言語学の世界だけで用いられている言葉ではありません。じつは、私の専門である「パターン認識」という分野でも用いられています。「パターン認識」は情報科学の研究分野の一つであり、「人工知能」に近いものです(最近では「人工知能」という言葉がバズワード化しつつあり、「パターン認識」という言葉も「人工知能」と十把一絡げにされてしまうことがあります。ただ、厳密には異なるものです)。みなさんの身近にあるパターン認識の技術として、「音声認識」というものがあります。これは、コンピュータにあらかじめいろんな音声のパターンを登録することで、「どんなことをしゃべったか」というのを自動で判別しています。音声認識のほか、手話認識や文字認識など、様々な認識をタスクとした研究が行われており、現在盛り上がっている研究分野の一つです。
 パターン認識の分野では、「転移学習」という考え方をどのように適用させるのでしょうか? 基本的な考え方は言語学と同じく「学習した知識を他に活かす」ものです。手話認識においては、「手の形」「動き」「表情」の要素をコンピュータが理解できるようにする必要があります。ここで、例えばゲーム機のWiiなどで用いられている「ジェスチャ認識(動きを読み取る)」技術や知識を図1のように流用(正確には、認識のための計算モデルを流用)することで、手話認識を行う計算モデルの構築が考えられます(厳密には、他にも多くの要素を用いる必要がありますが、ここでは簡易に説明しています)。このように、特定のタスクのために構築した計算モデルを他のタスクに「転移」させ、コンピュータの「転移学習」を実現させています。言語学の用語である「転移学習」が情報科学の分野にでも用いられていることにはびっくりです。


図1:転移学習を用いた手話認識のイメージ
左)上段から「ジェスチャ認識([6]より引用)」「手形状認識([7]より引用)」「表情認識([8]より引用)」、
右)「手話認識([9]より引用)」

おわりに

 本稿では、「イグ・ノーベル文学賞」の研究をベースに、「言語の共通性」が新たな言語の習得に役立つことを紹介しました。つぎに、手話は音声言語よりも「言語の共通性」が大きく、転移学習が容易であると考えられることを述べました。そして、「転移学習」の考え方が、なんと「情報科学」の分野でも用いられていることを紹介しました。
 今回の原稿を読んで、「理系の団体であるDSOで、なぜわざわざ『イグ・ノーベル文学賞』の紹介を行うのか」と疑問に思う方もいらっしゃるかもしれません。これは、「イグ・ノーベル賞」というとユニークさが先行して連想され、研究の中身が理解されることが少ないためです。ですが、実際に論文を読むと、決して馬鹿にはできない研究であることがわかります(今回紹介した研究は先行研究調査が充実しており、実験の進め方もわかりやすい、すばらしい論文でした)。このことをわかってもらいたかったのがひとつ目のねらいです。そして、「文学賞」という理系とは全く関係なさそうな分野でも意外なつながりがある(かなり無理矢理につなげてしまいましたが)、ことを知ってもらい、「分野を越えた学問のコラボレーションの効果」を考えてもらいたかった、というのがふたつ目のねらいです。このような狙いの元執筆した未熟な原稿ですが、本稿がきっかけとなり、みなさまがいろいろなことに興味を持ってくれるようになれば、こんなに嬉しいことはありません。それを祈り、筆を置かせていただきます。

謝辞

 本稿の作成にあたり、DSOメンバーであり、言語学を趣味とするTOMO氏の協力を得て言語学分野の説明を執筆しました。ここに深く感謝の意を示します。なお、本稿に誤りが見られた場合、それは筆者の知識不足によるものであり、その責任は筆者が負うものであることを明記いたします。

参考文献

[1] Mark Dingemanse, et.al. (2013) "Is “Huh?” a Universal Word? Conversational Infrastructure and the Convergent Evolution of Linguistic Items"  [http://huh.ideophone.org/(プロジェクトページ)
[2] 白井(2004) 外国語学習に成功する人、しない人―第二言語習得論への招待(岩波書店)
[3] おとうさん、おかあさんのための手話文法講座 第五回目<CLとは> http://www.bbed.org/move/index_02series_vol05.html
[4] ダニエル,宮本(2007) ニカラグア手話と言語接触研究(月刊言語2007年9月号)
[5] 斎藤, 喜多(2000)”意味の生まれる気配ー心の原風景を求めてー”
[6] 周期運動検出に基づくジェスチャ認識 -Umeda Laboratory http://www.mech.chuo-u.ac.jp/umedalab/introduction/g6/g6.html
[7] 三次元距離画像カメラ - OPTEX Japan http://www.optex.co.jp/product/3d.html
[8] OKAO Vision機能紹介 - Omron http://plus-sensing.omron.co.jp/technology/detail/
[9] Kinect Sign Language Translator expands communication possibilities -Microsoft Research http://research.microsoft.com/en-us/collaboration/stories/kinect-sign-language-translator.aspx
# 紹介したWebページはいずれも 2015/10/12にアクセスしたものです。




----------------------------------------------------執筆者------------------------------------------------------


 コン

 コンピュータビジョン/パターン認識の研究に従事.
-----------------------------------------------------------------------------------------------------------------


←2015年度のページに戻る