株式会社ずんだもん技術室AI放送局

By: 株式会社ずんだもん技術室AI放送局
  • Summary

  • AIやテクノロジーのトレンドを届けるPodcast。平日毎朝6時配信。朝の通勤時間や支度中に情報キャッチアップとして聞いてほしいのだ。
    Show more Show less
activate_WEBCRO358_DT_T2
Episodes
  • 株式会社ずんだもん技術室AI放送局 podcast 20240903
    Sep 2 2024
    スライド 関連リンク 「私、碧依さくらは事務所を作ります!」。個人勢のVTuber・碧依さくらさん、新グループ“re;BON(リボン)”設立を発表 個人勢VTuberの碧依さくらさんが、自身の3Dお披露目配信にて、新たなVTuber事務所「re;BON(リボン)」を設立することを発表しました。 碧依さくらさんは今年2月から活動をスタートし、半年でYouTube登録者数23万人超え、VTuber最協決定戦への出場など、精力的に活動を行ってきました。事務所設立の背景には、個人勢VTuberとしての活動で経験した苦労や、同じように苦労しているVTuberをサポートしたいという思いがあるようです。 「re;BON」は、英語の「Reborn」(再生)にかけた造語で、新たな挑戦や一歩を踏み出すVTuberを応援する事務所を目指しています。現時点では碧依さくらさん1人ですが、今後オーディションなどを開催し、メンバーを増やしていく予定です。 碧依さくらさんは、事務所の収益はスタッフの雇用やイベント費用などに充てる予定で、所属VTuberの取り分は受け取らないとのことです。また、自身も「re;BON」に所属するVTuberとして活動を続けていくことを宣言しており、まさに選手兼監督のような立場で事務所を牽引していく姿勢を示しています。 今回の発表は、碧依さくらさんのVTuber業界に対する熱い思いと、今後の更なる発展への強い決意を示すものと言えるでしょう。今後、碧依さくらさんと「re;BON」がどのような活動を展開していくのか、注目が集まります。 引用元: https://dengekionline.com/article/202409/16372 「AI生成キャラクター」はいまどのレベルまで進んでいるのか?バンダイナムコ研究所が語るAIテキスト生成の光と影【CEDEC 2024】 CEDEC 2024でバンダイナムコ研究所が発表した講演では、大規模言語モデル(LLM)を用いたゲーム内テキスト生成の現状と課題が語られました。LLMは近年目覚ましい発展を遂げ、ゲーム開発にも活用が進んでいます。バンダイナムコ研究所では、AIキャラクターが麻雀や雑談配信を行う「ゴー・ラウンド・ゲーム(ごらんげ)」プロジェクトでLLMを活用しています。 しかし、LLMを用いたテキスト生成には、品質や安定性、キャラクターらしさといった課題が存在します。例えば、ゲームのルールを理解させる難しさや、キャラクターの口調や設定を維持することの難しさなどが挙げられます。 これらの課題を解決するために、バンダイナムコ研究所では、テキスト生成の役割を分担するパイプライン化や、ツール・関数呼び出しによる外部データベースの活用といった手法を取り入れています。また、生成されるテキストの多様性を確保するための工夫や、キャラクターの個性を維持するためのRAG(検索拡張生成)などの技術も活用しています。 講演では、LLMの特性を理解し、適切な活用方法を見極めることの重要性が強調されました。LLMは万能ではなく、得意分野と不得意分野が存在します。ゲーム開発においては、LLMの特性を理解した上で、既存のシステムとの連携や、LLMが得意とするクリエイティブなタスクに焦点を当てることで、より効果的に活用できることが示唆されました。 さらに、AIとの関わり方として、人間とAIが競争するのではなく、共同して創造することでより良い成果が得られるという点も強調されました。AI技術は常に進化しており、常に新しいベストプラクティスを探求していく必要があることを理解しておくことが重要です。 新人エンジニアの方々にとって、この講演の内容は、LLMのゲーム開発における可能性と課題を理解する上で非常に参考になるでしょう。LLMを活用したゲーム開発を検討する際には、今回紹介された課題や解決策を参考に、自社のゲームに最適な方法を見つけていくことが重要です。 引用元: https://jp.ign.com/cedec-2024/76334/feature/aiaicedec-2024 インターンの二週間で社内APIを新しく建て本番リリースまで何でもやった話【ソフトウェアエンジニアインターン参戦記】 エムスリーの新卒ソフトウェアエンジニアインターンに参加した河村さんが、2週間で社内サービス「Yucca」のAPI開発から本番リリース、さらにはデータベース改善検討まで行った経験をまとめた...
    Show more Show less
    Less than 1 minute
  • 株式会社ずんだもん技術室AI放送局 podcast 20240902
    Sep 1 2024
    関連リンク 東京大学松尾・岩澤研究室 GENIACプロジェクトにおいて、大規模言語モデル「Tanuki-8×8B」を開発・公開 東京大学松尾・岩澤研究室は、経済産業省とNEDOが推進する生成AI基盤モデル開発プロジェクト「GENIAC」において、大規模言語モデル「Tanuki-8×8B」を開発し、公開しました。 Tanuki-8×8Bは、日本語の対話や作文能力に特化した、80億パラメータのモデルです。開発には、松尾研究室の大規模言語モデル講座の修了生や一般公募で集まった有志が参加し、コンペティション形式で開発が進められました。 特徴として、フルスクラッチで開発されたにも関わらず、対話や作文能力を評価する指標「Japanese MT-Bench」において、OpenAIの「GPT-3.5 Turbo」と同等以上の性能を達成しています。さらに、ユーザーとの対話評価においても、GPT-4やGeminiといった海外の先進モデルに匹敵する高い性能を示しました。 公開内容としては、Tanuki-8×8B本体に加え、軽量版の「Tanuki-8B」のチャットデモも公開されています。Apache License 2.0のライセンスに基づき、研究・商業目的を問わず自由に利用できます。 開発の背景には、国内の生成AI基盤モデル開発の強化と、日本独自の強みを備えたLLMの育成という目的があります。Tanuki-8×8Bは、その取り組みの成果の一つであり、今後の更なる発展が期待されています。 留意点として、Tanuki-8×8Bは、総合的な推論能力では海外の最先端モデルにはまだ及ばない点があります。一方で、共感性や思いやりを表現する能力に強みを持つことも明らかになっています。 今回のプロジェクトは、オープンな開発体制で進められ、その過程や知見も公開されています。日本のエンジニアが、生成AI分野の研究開発に貢献できる環境が整備されつつあると言えるでしょう。 引用元: https://weblab.t.u-tokyo.ac.jp/2024-08-30/ Llama.cpp で Command-R-plus-08-2024 を試す|npaka この記事では、Llama.cppを使ってCohereが開発した大規模言語モデル「Command-R-plus-08-2024」と「Command-R-08-2024」を試した結果をまとめられています。 Command-R-plus-08-2024は、104Bパラメータのモデルで、Command-Rシリーズの最新モデルです。一方、Command-R-08-2024は35Bパラメータのモデルです。 記事では、Llama.cppのビルド方法、モデルのダウンロード方法、そして実際にモデルを実行して質問し、回答を得る様子が紹介されています。 Command-R-plus-08-2024とCommand-R-08-2024はどちらも日本語で質問に答えることができ、異なる回答を生成することが確認できます。 例えば、「まどか☆マギカで誰が一番かわいいか」という質問に対して、Command-R-plus-08-2024は「個人の好みによる」という回答を返した一方、Command-R-08-2024は「鹿目まどか」という回答を返しています。 記事では、それぞれのモデルの実行時間なども掲載されており、モデルの性能を比較する材料にもなっています。 Llama.cppは、大規模言語モデルをローカル環境で実行するためのツールであり、今回の記事のように、様々なモデルを試す際に役立ちます。この記事は、Llama.cppでCommand-Rシリーズのモデルを試したいエンジニアにとって、参考になる情報が詰まっていると言えるでしょう。 引用元: https://note.com/npaka/n/n3237af6ce190 ソースコードをリポジトリ丸ごとLLMに読んでもらう方法 GitHubなどのリポジトリにある複数のソースコードファイルを、LLM(大規模言語モデル)でまとめて読み込みたい場合、gpt-repository-loaderやgenerate-project-summaryといったツールを使うことで、リポジトリ全体をテキスト化できます。これにより、LLMにプロジェクトの全体像を理解させ、コードに関する質問に答えたり、要約を作成したりすることが可能になります。 これらのツールは、リポジトリ内のファイル構造やコードをテキストに変換し、LLMが理解しやすい形式で出力します。 例えば、ファイルパスやファイル名、コードの内容を分かりやすく区切って表示することで、LLMがコードのコンテキストを把握しやすくなります。 具体的な用途としては、以下のようなものが挙げられます。 LLMへの入力: ChatGPTやClaudeなどのLLMに、テキスト化されたリポジトリの内容を入力することで、コードに関する質問に答...
    Show more Show less
    Less than 1 minute
  • 株式会社ずんだもん技術室AI放送局 podcast 20240830
    Aug 29 2024
    スライド 関連リンク
    • TVアニメ『魔神創造伝ワタル』公式サイト

    2025年1月からテレビ東京系列6局ネットにて放送開始予定のTVアニメ『魔神創造伝ワタル』の公式サイトです。

    小学4年生の主人公「星部ワタル」は、スーパースターを目指すRyuTuber。異世界「宙部界」を舞台に、ラスボス「エンジョーダ」を倒すため、ワタルがブロックで創った魔神「龍神丸」との冒険が始まります。

    ワタル役は田村睦心さん、カケル役は種﨑敦美さん、御富良院役は小西克幸さん、マロ役は梅澤めぐさん、リュンリュン役は釘宮理恵さん、龍神丸役は杉田智和さんなど、豪華声優陣が出演します。

    公式サイトでは、キャラクターや魔神の情報、最新ニュース、スタッフ&キャスト情報などを公開しています。ぜひご覧ください。

    引用元: https://wataru-anime.net/

    • The 4-chan Go programmer

    この記事は、Go言語で書かれた世界初のバージョン管理SQLデータベースであるDoltの開発チームが、Go言語のチャネルを使ってできることの限界に挑戦した結果、4層のチャネルインダイレクションを使って数値の5乗を計算するプログラムを作成したという内容です。

    このプログラムは、チャネルを介して別のチャネルを送信するという、現実のコードではあまり使われない手法を用いています。これは、ポインタを多層に渡って使用することでプログラムを作成する、昔流行った「4スタープログラマー」に例えられています。

    記事では、このプログラムがどのように動作するかを説明し、実際に動作するコード例も掲載されています。さらに、この手法が現実のコードではあまり使われない理由として、実装やデバッグの難しさ、パフォーマンスへの影響、コードの可読性の低下などを挙げています。

    しかし、記事の最後では、このプログラムは非常に面白く、Go言語のチャネルの能力を示す良い例であると結論付けています。

    引用元: https://www.dolthub.com/blog/2024-08-23-the-4-chan-go-programmer/

    • はてなブログや GigaViewer で使われている画像変換プロキシを EC2 から EKS に移行しました

    はてなブログや GigaViewer で使われている画像変換プロキシが、EC2 から EKS に移行されました。この移行により、システムの安定性とスケーラビリティが向上しました。

    従来の EC2 環境では、負荷変動に対応するために手動でインスタンスの増減を行う必要がありました。しかし、EKS への移行により、自動スケーリング機能が利用できるようになり、負荷状況に応じて自動的にインスタンスが調整されるようになりました。これにより、システムの安定性と可用性が大幅に向上しました。

    また、EKS はコンテナオーケストレーション技術を採用しており、開発環境と運用環境の一貫性を確保できます。これにより、開発から運用までの効率が向上し、開発チームの生産性向上が見込まれます。

    今回の移行は、はてなブログや GigaViewer のさらなる安定運用とサービス向上に貢献するものと考えられます。

    引用元: https://developer.hatenastaff.com/entry/2024/08/29/124236

    • お便り投稿フォーム

    (株式会社ずんだもんは架空の登場組織です)

    Show more Show less
    Less than 1 minute

What listeners say about 株式会社ずんだもん技術室AI放送局

Average customer ratings

Reviews - Please select the tabs below to change the source of reviews.