• 株式会社ずんだもん技術室AI放送局 podcast 20240902

  • Sep 1 2024
  • Length: Less than 1 minute
  • Podcast

株式会社ずんだもん技術室AI放送局 podcast 20240902

  • Summary

  • 関連リンク 東京大学松尾・岩澤研究室 GENIACプロジェクトにおいて、大規模言語モデル「Tanuki-8×8B」を開発・公開 東京大学松尾・岩澤研究室は、経済産業省とNEDOが推進する生成AI基盤モデル開発プロジェクト「GENIAC」において、大規模言語モデル「Tanuki-8×8B」を開発し、公開しました。 Tanuki-8×8Bは、日本語の対話や作文能力に特化した、80億パラメータのモデルです。開発には、松尾研究室の大規模言語モデル講座の修了生や一般公募で集まった有志が参加し、コンペティション形式で開発が進められました。 特徴として、フルスクラッチで開発されたにも関わらず、対話や作文能力を評価する指標「Japanese MT-Bench」において、OpenAIの「GPT-3.5 Turbo」と同等以上の性能を達成しています。さらに、ユーザーとの対話評価においても、GPT-4やGeminiといった海外の先進モデルに匹敵する高い性能を示しました。 公開内容としては、Tanuki-8×8B本体に加え、軽量版の「Tanuki-8B」のチャットデモも公開されています。Apache License 2.0のライセンスに基づき、研究・商業目的を問わず自由に利用できます。 開発の背景には、国内の生成AI基盤モデル開発の強化と、日本独自の強みを備えたLLMの育成という目的があります。Tanuki-8×8Bは、その取り組みの成果の一つであり、今後の更なる発展が期待されています。 留意点として、Tanuki-8×8Bは、総合的な推論能力では海外の最先端モデルにはまだ及ばない点があります。一方で、共感性や思いやりを表現する能力に強みを持つことも明らかになっています。 今回のプロジェクトは、オープンな開発体制で進められ、その過程や知見も公開されています。日本のエンジニアが、生成AI分野の研究開発に貢献できる環境が整備されつつあると言えるでしょう。 引用元: https://weblab.t.u-tokyo.ac.jp/2024-08-30/ Llama.cpp で Command-R-plus-08-2024 を試す|npaka この記事では、Llama.cppを使ってCohereが開発した大規模言語モデル「Command-R-plus-08-2024」と「Command-R-08-2024」を試した結果をまとめられています。 Command-R-plus-08-2024は、104Bパラメータのモデルで、Command-Rシリーズの最新モデルです。一方、Command-R-08-2024は35Bパラメータのモデルです。 記事では、Llama.cppのビルド方法、モデルのダウンロード方法、そして実際にモデルを実行して質問し、回答を得る様子が紹介されています。 Command-R-plus-08-2024とCommand-R-08-2024はどちらも日本語で質問に答えることができ、異なる回答を生成することが確認できます。 例えば、「まどか☆マギカで誰が一番かわいいか」という質問に対して、Command-R-plus-08-2024は「個人の好みによる」という回答を返した一方、Command-R-08-2024は「鹿目まどか」という回答を返しています。 記事では、それぞれのモデルの実行時間なども掲載されており、モデルの性能を比較する材料にもなっています。 Llama.cppは、大規模言語モデルをローカル環境で実行するためのツールであり、今回の記事のように、様々なモデルを試す際に役立ちます。この記事は、Llama.cppでCommand-Rシリーズのモデルを試したいエンジニアにとって、参考になる情報が詰まっていると言えるでしょう。 引用元: https://note.com/npaka/n/n3237af6ce190 ソースコードをリポジトリ丸ごとLLMに読んでもらう方法 GitHubなどのリポジトリにある複数のソースコードファイルを、LLM(大規模言語モデル)でまとめて読み込みたい場合、gpt-repository-loaderやgenerate-project-summaryといったツールを使うことで、リポジトリ全体をテキスト化できます。これにより、LLMにプロジェクトの全体像を理解させ、コードに関する質問に答えたり、要約を作成したりすることが可能になります。 これらのツールは、リポジトリ内のファイル構造やコードをテキストに変換し、LLMが理解しやすい形式で出力します。 例えば、ファイルパスやファイル名、コードの内容を分かりやすく区切って表示することで、LLMがコードのコンテキストを把握しやすくなります。 具体的な用途としては、以下のようなものが挙げられます。 LLMへの入力: ChatGPTやClaudeなどのLLMに、テキスト化されたリポジトリの内容を入力することで、コードに関する質問に答...
    Show more Show less
activate_WEBCRO358_DT_T2

What listeners say about 株式会社ずんだもん技術室AI放送局 podcast 20240902

Average customer ratings

Reviews - Please select the tabs below to change the source of reviews.