大規模言語モデルとは何か。
今日のコラム♪
『大規模言語モデルとは何か。』
今日のテーマは、
『大規模言語モデル』について。
「ChatGPT」などの登場により、
この言葉を耳にしたことがある方も
多いのではないかと思います。
ただ、何のことかさっぱり…^^;
という方がほとんどではないでしょうか。
実のところ、私もです…(^^ゞ
というわけで、
これが何を意味するのか
今日は少し掘り下げていきたいと
思います! (^_^)/
今回は、一部にマイクロソフトの
AI搭載の検索エンジン
「Bing」を使って、
教えてもらったことをまとめる
という形もとっています!(^_^)/
せっかくなので、
「ChatGPT」で、
今日のブログを全部書いてもらっても
よかったかもですね。(笑)
いやいや、
このブログは、
私自身の学びのためにも書いているので、
さぼらず頑張ります!^^;
さて、
『大規模言語モデル』とは、
英語では、「Large Language Models」
となり、通称「LLM」とされています。
自然言語処理(NLP)の分野で使用される
「ディープラーニング」のモデルの一種で、
人間の脳の「ニューロン」の働きを模倣する
計算モデルも含まれています。
その主な目的は、
膨大な量のテキストデータを学習し、
人間のような自然な言語生成や理解を
実現することにあります。
・・・・・
これだけでは、
理解できないですよね。^^;
具体的な内容については、
私もあまり説明できないので、
今回はいったん置いておきましょう。
現在、
汎用的な「言語モデル」の開発が
世界中で行われています。
一躍有名になった「ChatGPT」の
GPT(※)は、言語モデルの1つです。
※Generative Pretrained Transformer
約5兆語にも及ぶテキストを
取り込み、膨大な言語パターンを
学習することによって、
人間に近いコトバを使えるまでになり、
世界を騒がせたのです。
他にも、
Googleが開発している
大規模言語モデルに、
「BERT」があります。
日本国内でも、
独自の大規模言語モデルを確立すべく、
スーパーコンピューター「富岳」を
活用した開発が進められています。
そもそも、
なぜ、このような「言語モデル」の
開発が必要なのでしょうか。
ここを掘り下げていくと、
「言語」というものの奥深さを
感じざるを得ません。
人が人であるゆえんは、
「自然言語」を使うことにあります。
世界には、日本語、英語など
様々な言語がありますが、
どの国の人たちも生まれてから
自国の言語を自然と話せるようになり、
「口語」と言われる形で、
意思疎通を図ることができるように
なっていきます。
人が生まれてから、
どのように言語を習得していくのかを
研究し、その過程を、
AIの言語学習に取り入れることが、
「大規模言語モデル」の
開発のキモだと言えるでしょう。
今は、
「ディープラーニング」によって、
「言葉の意味」を学習する時代から、
人間のような「対話」を学習する時代
へと大きく進化してきているのです。
「対話」とは、
前後の言葉から
次の単語を予想することが、
基本にあるそうです。
AIは今、この「対話」するための
基本的な学習もすでに終えつつあるのです。
ただ、現時点では、
まだ物足りない部分も残ります。
かなりスムーズな「対話」が
できるようになったとはいえ、
皆さんが「LINE」などで
やりとりするような文面とは違って、
少し硬さが残るような感じがするのは
否めません。
この理由は、
「個性」がないからです。
人によって違う
独特の言い回しなどによって、
その人らしさを
感じられたりするものです。
しかし、
このような状況はすぐに
改善されると言われています。
最新版の「CharGPT」では、
それぞれのユーザーアカウントごとに
データを記憶させることができるように
なっているようです。
つまり、
あなたらしい、あなた好みの言語モデル
が確立されていくようになるのです。
ここまでくると、
少し、怖い部分もありますけどね…^^;
この先、どうなっていくのか
楽しみな部分と不安な部分が交錯して
複雑な気分ではありますが、
私たちは、これから
AIと上手く融合していく術を習得
していくことが必要なのでしょうね。
では、今日はここまで~、