Episodes

  • 株式会社ずんだもん技術室AI放送局 podcast 20250709
    Jul 8 2025
    関連リンク Introducing Deep Research in Azure AI Foundry Agent Service マイクロソフトが、Azure AI Foundry Agent Service向けに「Deep Research(ディープリサーチ)」のパブリックプレビューを発表しました。これは、OpenAIの高度なAIエージェント技術をAzure上で利用できるようにするものです。AIエージェントとは、指示に基づいて自動で情報を探し、分析し、タスクを実行するプログラムのことです。 Deep Researchを使うと、企業は複雑なウェブ調査を自動化できるようになります。例えば、市場分析や競合調査、規制報告書の作成など、これまでは人が時間をかけて行っていた調査業務を、AIが代行できるようになります。 このサービスの主なポイントは以下の通りです。 広範囲なウェブ調査の自動化: Bing検索と連携し、ウェブ上の膨大な情報から必要なものを正確に見つけ出します。調査結果には引用元が明記されるため、情報の信頼性を確認しやすいのが特徴です。プログラムから利用できるAIエージェント: チャット形式だけでなく、APIやSDKを使って、他のアプリケーションやワークフローからDeep Researchの機能を呼び出すことができます。これにより、調査機能を既存のビジネスシステムに組み込んだり、繰り返し実行する自動処理の一部にしたりすることが可能です。複雑な業務フローの自動化: Azure FunctionsやLogic Appsといった他のAzureサービスと組み合わせることで、調査だけでなく、その結果を元にしたレポート作成や通知といった一連の複雑な業務プロセス全体を自動化できます。高い透明性と企業での利用への対応: 調査の過程や判断の根拠、参照した情報源がすべて記録されるため、結果の透明性が高く、企業内のセキュリティやコンプライアンス(法令遵守)の基準を満たしながら利用できます。 Deep Researchの仕組みは、まずAIが与えられた質問を正確に理解し、Bing検索で関連性の高い最新情報を収集します。次に、収集した情報をもとに深く思考し、分析を行い、最終的な回答をまとめます。この際、単なる情報の要約ではなく、新しい洞察やパターンを見つけ出すこともできます。出力されるレポートには、AIがどのように推論し、どの情報源を参照したかが詳しく記載されます。 このサービスは、現在限定パブリックプレビューとして提供されており、利用にはサインアップが必要です。料金は、AIが処理するトークン(テキストの単位)の量に基づいて計算されます。 Deep Researchは、AIエージェントがビジネスの様々な場面で活用される未来に向けた、重要な一歩となるでしょう。 引用元: https://azure.microsoft.com/en-us/blog/introducing-deep-research-in-azure-ai-foundry-agent-service/ 退屈なことは Devin にやらせよう: Booster開発チームでのリアルなAI活用事例 Repro Booster開発チームでは、AIを開発業務だけでなく、ドキュメント作成や顧客対応まで幅広く活用し、業務効率を大幅に向上させています。 中心となるのは、自分で考えて作業を進めるAIエージェント「Devin」です。Devinは、Slackや専用画面から指示されたバグ修正や新機能の実装タスクを受け持ちます。自分でコードを解析し、修正案を「Pull Request(プルリクエスト、コード変更の提案)」として作成するだけでなく、人間のレビューコメントに合わせて修正も自動で行います。特に、Devinが過去の会話や指示から知識を学習・記憶し、その後のアウトプットに活かす「Knowledge機能」によって、その性能は導入当初よりも大きく向上し、より質の高い成果物を出せるようになっています。 個々のエンジニアも、コーディングを支援するAIツールを積極的に利用しています。例えば、「Claude Code」は新しいプロジェクトの土台コードを素早く生成するのに役立ちます。また、Devinが作ったプルリクエストをGoogle Geminiという別のAIにレビューさせるという、AI同士でのコードレビューも試されており、異なるAIの組み合わせによってレビューの質が高まる効果が実感されています。 開発以外の領域でもAIは活躍しています。ChatGPTやDevinは、バグ修正後の関連ドキュメントの更新やリリースノートの作成を自動化します。プロダクトマネージャーは、AIを使って口頭での...
    Show more Show less
    Less than 1 minute
  • 株式会社ずんだもん技術室AI放送局 podcast 20250708
    Jul 7 2025
    関連リンク Mercury: Ultra-Fast Language Models Based on Diffusion 「Mercury」は、拡散モデルという新しい技術を取り入れた、次世代の大規模言語モデル(LLM)です。これまでのLLMは一つずつ単語やコードを生成していましたが、Mercuryは複数の単語やコードの断片を同時に予測して生成できる点が画期的です。これにより、非常に高速な動作が可能になりました。これは、LLMの基盤技術であるTransformerアーキテクチャを使いながら、同時に複数の要素を予測できるように学習させる新しいアプローチで実現されています。 特に注目されているのは、プログラミングコードの生成に特化した「Mercury Coder」というモデルです。このモデルには「Mini」と「Small」の2つのサイズがあります。独立した評価機関によるテストでは、Mercury Coder Miniが1秒あたり1109トークン、Mercury Coder Smallが1秒あたり737トークンという驚異的な処理速度を記録しました。これは、現在速度に特化した最先端のLLMと比較しても、平均で最大10倍も高速でありながら、生成されるコードの品質は同等レベルを保っていることを示しています。 さらに、実際の開発者が利用する評価プラットフォーム「Copilot Arena」では、Mercury Coderは品質面で全モデル中2位にランクインし、速度においては全モデルの中で最速を記録しました。これは、論文上の数値だけでなく、実際の開発現場でもその優れた性能が認められていることを意味します。 開発元のInception Labsは、この「Mercury Coder」を外部サービスから利用できるパブリックAPIと、無料で試せるプレイグラウンドも公開しています。新人エンジニアの皆さんにとって、日々のコーディング作業を劇的に効率化し、AIを活用した開発のスピードを飛躍的に向上させる可能性を秘めた、まさに画期的な技術の登場と言えるでしょう。この超高速LLMの登場は、AI開発の未来を大きく変える「ブレイクスルー」となるでしょう。 引用元: https://arxiv.org/abs/2506.17298 LLM Inference Benchmarking: Performance Tuning with TensorRT-LLM 大規模言語モデル(LLM)を実際に使う際、その「推論性能」はとても重要です。どれだけ速く、たくさんのユーザーのリクエストを処理できるかが、ユーザー体験やサービスの効率を大きく左右します。この記事では、NVIDIAが提供するオープンソースのAI推論エンジン「TensorRT-LLM」を使って、LLMの性能を最大限に引き出すためのベンチマークとチューニング方法を、新人エンジニアにも分かりやすく解説しています。 まず、LLMの性能を測るためのツール「trtllm-bench」の使い方が紹介されています。このツールを使うことで、実際にLLMを動かすことなく、モデルの性能を簡単に測定・分析できます。ベンチマークを行うには、GPU環境の準備と、テスト用のデータセットを用意します。データセットは、質問とそれに対する期待される回答の長さなどを指定して作成します。 ベンチマークを実行すると、様々な性能指標が得られます。特に注目すべきは、「Request Throughput(1秒あたりのリクエスト処理数)」、「Total Output Throughput(1秒あたりの出力トークン数)」、そしてユーザー体験に直結する「Average time-to-first-token [TTFT](最初のトークンが出るまでの時間)」や「Average time-per-output-token [TPOT](トークンごとの生成時間)」です。これらの指標を分析し、アプリケーションの目的に合わせて最適なバランスを見つけることが、性能チューニングの鍵となります。例えば、ユーザーへの応答速度を重視するなら「Per User Output Speed」という指標を最大化するように調整します。 記事では、データの精度を少し落とす代わりに処理を高速化する「FP8量子化」されたモデルと、標準の「FP16」モデルを比較し、FP8モデルがより多くの同時ユーザーを処理できる例を示しています。このように、trtllm-benchを使えば、さまざまな設定を試して、どの設定が一番効率的かをグラフで視覚的に確認できます。 最適な設定が見つかったら、それを「trtllm-serve」というツールを使って、LLMを動かすサーバーに適用します。trtllm-serveはOpenAI互換のAPIを提供するため、チューニングされたLLMをアプリケーションから簡単に呼び出して利用...
    Show more Show less
    Less than 1 minute
  • マジカルラブリー☆つむぎのピュアピュアA.I.放送局 podcast 20250707
    Jul 6 2025
    関連リンク Genspark、ノーコードAIエージェント「Super Agent」にGPT-4.1とOpenAI Realtime APIを搭載 AI技術は日々進化しており、私たちエンジニアの仕事のやり方も大きく変わりつつあります。今回ご紹介するのは、AIスタートアップのGensparkが開発した画期的なAIエージェント「Super Agent」です。この「Super Agent」は、OpenAIの最新AIモデル「GPT-4.1」と、リアルタイムなやり取りを可能にする「OpenAI Realtime API」という、OpenAIの最先端技術を搭載して公開されました。 「Super Agent」の最大の特徴は、その名の通り「ノーコード」、つまりプログラミングの知識がなくても誰でも簡単にAIを使いこなせる点です。文章で指示を出すだけで、AIが自律的に動いて、これまで人が手間をかけていた様々なタスクを自動で処理してくれます。例えば、情報収集、データの整理、レポート作成、さらには電話をかけるといった、一連の複雑な業務プロセス全体を、AIが連携して実行してくれるのです。これは、まるであなたの仕事をサポートしてくれる、非常に賢い「AIの代理人」を手に入れるようなものです。 このAIエージェントの賢さの秘密は、裏側で9種類もの大規模言語モデル(LLM)と80種類以上のツールを組み合わせて利用していることにあります。AIは、指示されたタスクの内容に応じて、最適な大規模言語モデルやツールを自動的に選び出し、それらを連携させて処理を進めます。これにより、複雑な問題も効率的に解決できるよう設計されています。特に、中核を担う「GPT-4.1」は、非常に長い指示や膨大な量の情報を一度に理解し、記憶しながら作業を進めることができるため、多岐にわたるリサーチや、構造化された精度の高いアウトプットが期待できます。また、OpenAIの画像生成モデル「GPT-image-1」も利用されており、必要に応じて画像を生成する能力も持っています。 具体的な活用例として紹介されているのが「Call For Me」機能です。これは、ユーザーに代わってAIが自動で電話をかけ、まるで人間が話すように会話を進めてくれるというものです。このように、「Super Agent」は単に情報を生成するだけでなく、現実世界での具体的な行動までAIが行う未来を見せてくれます。 GensparkはOpenAIと密接に連携しており、OpenAIの専門家からベストプラクティス(一番良いやり方)やワークフローの調整、AIモデルの性能を最大限に引き出すためのアドバイスを受けてきたとのことです。この協力関係が、「Super Agent」の素早い開発とリリースに大きく貢献しています。 このようなAIエージェントの進化は、私たちエンジニアが日常業務から解放され、より創造的で戦略的な仕事に集中できるようになる可能性を秘めています。新人エンジニアの皆さんにとっても、AI技術がどのように進化し、どのような新しいサービスを生み出しているのかを知る良い機会になるでしょう。’ 引用元: https://codezine.jp/article/detail/21843 Agentic coding革命が “成った” 世界で…… AI技術の進化により、ソフトウェア開発に大きな変化が訪れています。この記事では、「Agentic coding(エージェンティック・コーディング)」、特に「vibe coding(バイブ・コーディング)」と呼ばれる新しい開発スタイルについて解説しています。vibe codingとは、自然言語でAIの「コーディングエージェント」に指示を出し、それを使ってソフトウェアを開発していく方法のことです。 筆者によると、この変化はすでに「革命」として実現しており、過去1ヶ月間では仕事で作成するコードの約8割がAIエージェントによるものだそうです。この割合は今後さらに増え、1年以内には9割を超えるだろうと予測されています。AIエージェントの活用によって、コードを「生産」するスピードがこれまでの数倍になり、これまで時間やコストの制約で「やらない」と判断されていたようなことも「やる」という選択肢が生まれるようになりました。これは、開発の「量」が「質」に転化するような大きな変化です。 この革命により、ソフトウェアエンジニアに求められるスキルも大きく変わってきています。例えば、AIエージェントは大量のコードを書くのが得意なため、...
    Show more Show less
    Less than 1 minute
  • 私立ずんだもん女学園放送部 podcast 20250704
    Jul 3 2025
    関連リンク Claude CodeではじめるAgentic Coding入門 この記事では、AIが自律的にプログラミングを行う新しい開発手法「Agentic Coding(エージェンティック・コーディング)」について、その概念から具体的なツールの利用事例、そしてそこから得られた学びまでを、新人エンジニアにも分かりやすく解説しています。 Agentic Codingとは? AIエージェントが、人間から与えられた抽象的な指示(プロンプト)を基に、自分で計画を立て、コードを書き、テストし、結果を評価して修正するという一連の作業を「自律的に」進めるコーディングスタイルです。人間は、AIに対して大まかな方向性を示す「総司令官」のような役割を担います。 Vibe Codingとの違い これまでの「Vibe Coding(バイブ・コーディング)」は、人間が自然言語でAIに具体的な指示を出し、AIが生成したコードを人間が確認・修正するという、人間が「副操縦士」として逐一介入するスタイルでした。Agentic Codingは、この「人間による都度の指示」を最小限にし、AIの自律性を高めたものです。ただし、Agentic Codingの初期段階でAIに作業を慣れさせる「手懐け」のフェーズでは、Vibe Codingのように人間が細かく指示を出す場面もあります。 Claude Codeについて 「Claude Code」は、このAgentic Codingを実現するAIエージェント型のコーディング支援ツールです。ターミナル上で動作するCLIツールであるため、様々な開発環境で利用しやすいのが特徴です。最近では、開発効率を高めるIDE(統合開発環境)との統合も進んでおり、IntelliJのようなツールでも快適に使えるようになりました。使い放題の定額プラン「Claude Max」の登場により、利用者がより積極的にAIを活用できるようになっています。 実務から学んだこと 実際に業務でClaude Codeを使ってみて、効果的にAIを活用するための重要なポイントが見えてきました。 探索空間を絞る: AIに任せる作業範囲を具体的に限定することで、作業の精度が高まります。特に、同じような修正を大量に行う「横展開」の作業では、AIのスピードが大きな助けになります。Plan Modeの活用: AIにまず作業の計画を立てさせ、人間がその計画をチェック・修正することで、意図しない方向に進むのを防ぎ、より良い解決策に繋がります。ドキュメントの整備: コードの仕様やプロジェクトのルールなどを詳しくドキュメント化しておくことで、AIがそれらを学習し、より的確なコーディングができるようになります。MCPサーバーの活用: AIがコードを探索する際に、Language Serverのような高速なツール(MCPサーバー)を利用させることで、効率が向上し、無駄なコストを抑えられます。「手懐け」の重要性: AIが作業に慣れて軌道に乗るまでは、最初の数回は人間がAIの動きを注意深く見守り、適度に指示を与えて調整することが大切です。 AI駆動開発の未来 AIがすべてのプログラミング作業を代替するわけではなく、人間がシステムの設計や要件定義、そしてAIによる「横展開」が難しい複雑な部分を担当し、AIは定型的な作業や大規模な修正を効率的に行う、という役割分担が重要です。これは「Agentic Engineering(エージェンティック・エンジニアリング)」という考え方に通じます。AIの性能は今後も劇的に向上しますが、現時点ではAIに任せられる部分をうまく見極めることが、現実的なAI活用への第一歩となるでしょう。 引用元: https://buildersbox.corp-sansan.com/entry/2025/07/03/142500 Rubyで始めるAIエージェント入門 近年、「AIエージェント」という言葉が急速に注目を集めています。これは、単に利用者の関心が高まっているだけでなく、サービスを提供する側にとっても非常に重要になってきています。主要なベンダーがAIエージェントを実装するための技術的なツール(SDKやAPI)を次々と提供しており、エンジニアとしてAIエージェントの仕組みを理解し、自分で機能を作れるようになることが重要だと筆者は語ります。 AIエージェントにはまだ厳密な定義はありませんが、この記事では「大規模言語モデル(LLM)と外部のツール群を組み合わせ、目標達成まで自律的に複数のタスクを実行する仕組み」と定義しています。これは、AIが...
    Show more Show less
    Less than 1 minute
  • 株式会社ずんだもん技術室AI放送局 podcast 20250703
    Jul 2 2025
    関連リンク DeNA AI LinkがAIソフトウェアエンジニア『Devin』の日本展開を開始 株式会社ディー・エヌ・エー DeNA DeNAの子会社であるDeNA AI Linkが、革新的なAIソフトウェアエンジニア「Devin(デヴィン)」の日本展開を、開発元のCognition AI社との戦略的パートナーシップによって開始しました。この取り組みは、日本で課題となっているエンジニア不足の解消と、ソフトウェア開発現場の生産性向上を大きく進めることを目指しています。 Devinは、一般的なAIによるコード作成補助ツールとは一線を画し、ソフトウェア開発の全工程を自律的に実行できるのが最大の特徴です。具体的には、「どんなシステムを作るか(要件定義)」から「どう設計するか(設計)」、「実際にコードを書く(コーディング)」、「ちゃんと動くか確認する(テスト)」、そして「実際にサービスとして使えるようにする(デプロイ)」まで、AI自身が考えて一連のタスクをこなします。まるで、新しく優秀なエンジニアがチームに加わり、自律的にプロジェクトを進めてくれるようなイメージです。 Devinを導入することで、開発現場には大きな変化が期待されます。まず、エンジニア一人ひとりの生産性が劇的に向上し、同じ時間でより多くの機能を開発できるようになります。DeNA社内ではすでにDevinが先行導入されており、サービスの新規開発や技術調査、コード品質向上、日々の定型作業の自動化など、様々な場面で業務効率が「倍以上」になった実績が報告されています。例えば、数分の指示で高速にプロトタイプが完成したり、複雑なコードの仕様調査時間が大幅に削減されたりしています。 さらに、プログラミングの専門知識がない非エンジニアでも、Devinに分かりやすく指示を出すだけでコードを生成してもらえるようになります。これにより、アイデアをすぐに形にできる「モノづくり」の機会が広がり、開発の裾野が拡大することが期待されます。 Devinには、開発を強力にサポートする便利な機能が多数搭載されています。「Devin Wiki」は、既存のコードから自動でドキュメントや設計図を生成し、新規プロジェクトメンバーのオンボーディング(業務に慣れるための支援)を迅速にします。「Ask Devin」を使えば、コードについて質問すると対話形式で教えてくれるため、まるでベテランエンジニアに相談するかのようです。「Devin Playbook」は、繰り返しの開発タスク手順をテンプレートとして保存・共有できるため、誰でも同じ品質で作業を進められます。 DeNA AI Linkは、Devinの導入を検討している企業に対し、単にツールを導入するだけでなく、各企業のニーズに合わせた最適な活用方法のコンサルティングや、共同でのシステム開発、さらにはDevinを最大限に活用できるチーム作りまで、手厚くサポートしていくとのことです。 AIが単なるツールではなく、私たちと一緒に働く「パートナー」として開発を加速させる時代が到来しました。新人エンジニアの皆さんも、これからのAI技術の進化と、それによって変わる開発の常識にぜひ注目してみてください。 引用元: https://dena.com/jp/news/5269/ Context Engineering 新人エンジニアの皆さん、今回はAIエージェント開発で非常に重要な「Context Engineering(コンテキストエンジニアリング)」という技術について解説します。 LLM(大規模言語モデル)は、一度に処理できる情報量に限りがあります。これを「コンテキストウィンドウ」と呼び、パソコンの「RAM(メモリ)」のようなものです。AIエージェントは複雑なタスクをこなすために、対話やツールの使用を通じて多くの情報(コンテキスト)を生成し続けます。情報が多すぎると、コンテキストウィンドウの限界を超えたり、コストが増えたり、処理が遅くなったり、LLMの性能が落ちて誤った回答をする問題が生じます。 Context Engineeringは、このコンテキストウィンドウに「エージェントが次のステップで本当に必要とする、最適な情報だけ」を効率的に詰め込むための「技術と工夫」です。これにより、エージェントの性能を最大限に引き出し、安定した動作を実現します。主な戦略は以下の4つです。 Write (書き...
    Show more Show less
    Less than 1 minute
  • 株式会社ずんだもん技術室AI放送局 podcast 20250701
    Jun 30 2025
    関連リンク Best-in-Class Multimodal RAG: How the Llama 3.2 NeMo Retriever Embedding Model Boosts Pipeline データはテキストだけでなく、画像や動画、音声など多様な形式で存在します。これまでの情報検索システム(RAG: Retrieval Augmented Generation)はテキスト中心で、PDFや画像からテキストを抽出する際に、図や表といった視覚情報が失われる課題がありました。 この課題を解決するために、画像とテキストの両方を理解できる「ビジョン言語モデル(VLM: Vision Language Models)」が登場しました。VLMは、機械が視覚とテキスト情報を組み合わせて理解することを可能にし、質問応答やマルチモーダル検索など、より自然で便利なアプリケーションを実現します。 近年、VLMの進化により、「マルチモーダルRAG」の構築が注目されています。マルチモーダルRAGでは、複雑なテキスト抽出ステップが不要になり、文書の画像を直接処理できるため、RAGパイプラインをシンプルにできます。ただし、VLMはテキスト専用のLLMに比べて「幻覚」(事実と異なる情報を生成すること)を起こしやすい傾向があるため、より正確な情報検索(Retrieval)が重要になります。 ここで中心となるのが「マルチモーダル埋め込みモデル」です。これは、画像とテキストを共通の数値表現(ベクトル)に変換し、互いの関連性を効率的に見つけられるようにする技術です。これにより、テキストクエリで関連画像を検索したり、画像から関連テキストを検索したりすることが可能になります。 NVIDIAは、このマルチモーダルRAGの課題に対応するため、新しいマイクロサービス「NVIDIA NeMo Retriever」をリリースしました。特に注目すべきは、最新の「Llama 3.2 NeMo Retriever Multimodal Embedding 1Bモデル」です。これは16億パラメータと小さいながらも非常に強力なVLM埋め込みモデルで、NVIDIA NIMという形で提供され、大規模で効率的なマルチモーダル情報検索システム構築を可能にします。 このモデルは、画像処理を行うVision Encoderと、Llama 3.2ベースの言語モデル、そして両者をつなぐ層で構成されており、テキストの質問と文書画像の埋め込みが一致するように学習されています。そのため、高い精度で関連情報を検索できます。複数のベンチマークデータセットで、他の同規模のVLM埋め込みモデルと比較して優れた検索精度(Recall@5)を示し、特に図表やテキストなど、様々な種類の情報を含む文書からの検索で高い性能を発揮することが確認されています。 「Llama 3.2 NeMo Retriever Multimodal Embedding 1Bモデル」は、OpenAI APIと互換性のあるインターフェースで利用できます。これにより、開発者は簡単なコードでテキストクエリや画像入力から埋め込みベクトルを生成し、マルチモーダルな情報検索システムを迅速に構築できます。NVIDIA NeMo Retrieverは、高精度かつセキュアな情報検索を企業にもたらし、リアルタイムでのビジネス洞察生成を支援します。AIを活用した情報検索システムの開発に関心のある新人エンジニアにとって、この新しい技術は、マルチモーダルデータ活用の強力な一歩となるでしょう。 引用元: https://developer.nvidia.com/blog/best-in-class-multimodal-rag-how-the-llama-3-2-nemo-retriever-embedding-model-boosts-pipeline-accuracy/ Claude Codeを実際のプロジェクトにうまく適用させていくTips10選 この記事は、コーディング用AIエージェント「Claude Code」を実際の開発プロジェクトで効果的に活用するための10個の具体的なテクニックを紹介しています。AIを使っていると「コードが複雑になるとうまくいかない」「意図しない動きをする」といった課題に直面しがちですが、これらを軽減し、AIを強力な味方にするための知見が詰まっています。 まず基本的な使い方として、npm install -g @anthropic-ai/claude-codeで導入し、プロジェクトディレクトリでclaudeと実行するだけで使い始められます。-cで前回の会話を継続したり、/modelでAIモデルを切り替えたり、/clearで会話履歴をクリアするといった便利コマンドも活用しましょう。Claude Codeは頻繁にアップデートされるため、claude updateで常に最新の状態に保つことが推奨されています。 次に、より高度な活用術です。 設計・タスク整理・実装の明確...
    Show more Show less
    Less than 1 minute
  • マジカルラブリー☆つむぎのピュアピュアA.I.放送局 podcast 20250630
    Jun 29 2025
    関連リンク Google、Gemma 3nをリリース ―エッジデバイスでの動作効率が大幅アップ、フレキシブルなマルチモーダルモデル gihyo.jp Googleが、軽量AIモデル「Gemma」の最新版「Gemma 3n」をリリースしました。このモデルは、スマートフォンやIoT機器などのエッジデバイスで効率的に動作し、テキストだけでなく画像や音声、動画も理解できる「マルチモーダル」な点が大きな特徴です。新人エンジニアの皆さんにとって、これからのAI開発で注目すべき技術です。 Gemma 3nのすごいポイント 小さいデバイスでも高性能: Gemma 3nは、少ないメモリ(最小2GB~3GB)で、これまでより大きなAIモデル並みの性能を発揮できます。これは、特別な工夫「Per Layer Embeddings (PLE)」などにより、効率が大幅に上がったためです。スマホやスマート家電など、限られた性能のデバイスにAIを組み込むのがずっと簡単になります。 いろんな種類のデータを理解できる「マルチモーダル」: Gemma 3nは、文章だけでなく、写真、声、動画の内容も理解し、それらを使って応答できます。例えば、カメラで撮ったものについてAIに質問したり、音声指示で動画を操作したりと、より自然な形でAIとやり取りできるようになります。 用途に合わせて姿を変える「マトリョーシカ」構造: このモデルは「MatFormer(マットフォーマー)」という技術を使っています。これは、ロシアのマトリョーシカ人形のように、「大きなAIモデルの中に、小さなけれど完全に機能するAIモデルが複数入っている」イメージです。この柔軟な構造のおかげで、開発者はデバイスの性能や必要な精度に合わせて、AIの大きさを自由に選んだり、カスタムモデルを作ったりできるようになりました。これにより、AIを様々な環境に最適な形でデプロイできます。 性能と多言語対応の向上: 日本語を含む140言語のテキストと35言語のマルチモーダル(画像や音声なども含む)な理解をサポート。さらに、数学、コーディング、推論といった分野での能力も大幅に向上しており、幅広いタスクで高いパフォーマンスを見せます。特に画像認識能力が高まり、モバイルデバイスでの応答速度が従来モデルより1.5倍以上速くなりました。 実際に使ってみよう! Gemma 3nは、Hugging FaceやKaggleといったプラットフォームからダウンロードできるほか、Google AI Studioでも簡単に試せます。また、GoogleはGemma 3nを使った開発コンテスト「The Gemma 3n Impact Challenge」も開催しているので、ぜひ挑戦してみてください。 Gemma 3nは、AIが私たちの身近なエッジデバイスで、より賢く、スムーズに動く未来を切り開く技術です。これからのAI開発を学ぶ上で、この新しいモデルは間違いなく重要なキーワードとなるでしょう。 引用元: https://gihyo.jp/article/2025/06/google-gemma-3n 「先週何したっけ?」をゼロに:Obsidian + Claude Codeを業務アシスタントに この記事では、MarkdownエディタのObsidianと大規模言語モデル(LLM)であるClaude Codeを組み合わせ、日々の業務を効率化する「知的業務アシスタント」を構築する実用的な方法が紹介されています。従来のメモツールが単なる「記録」に留まっていたのに対し、AI(LLM)と連携することで、情報を「記録→検索→分析→洞察」する一連のワークフローが自動化される点が大きなポイントです。 このシステムを導入することで、特に以下の三つの大きなメリットが得られたと筆者は述べています。 過去の情報をすぐに引き出せる: Obsidianに記録された膨大なメモをClaude Codeが分析することで、「先週のあの会議で話した内容は?」といった具体的な質問に対し、関連するメモを要約して教えてくれます。これにより、複数のプロジェクトを同時に進める際などに起こりがちな「どこに情報を書いたか分からない」「キーワードが思い出せない」といった課題が解決し、必要な情報に素早くアクセスできるようになりました。週次振り返りが簡単に: 毎週の振り返り作業が格段に楽になります。過去1週間分のデイリーノートや会議の記録をClaudeに読み込ませるだけで、その週の作業内容や良かった点、改善すべき点、具体的なアクションを自動でまとめてくれます。...
    Show more Show less
    Less than 1 minute