Jpdenchi.comはお客様に様々な高品質バッテリーを提供するオンラインショップです
木曜日、Anthropicは新しいAPI機能「引用(Citations)」を導入しました。この機能は、Claudeモデルがよく見られる問題である虚偽の情報(confabulations)や幻覚(hallucinations)を避けるために、回答を直接ソース文書にリンクさせることを目的としています。この新しいツールにより、開発者はPDFやプレーンテキストファイルをClaudeのコンテキストウィンドウにアップロードでき、AIはその回答に使用した特定の箇所を自動的に引用します。
「引用」機能が有効になると、AnthropicのAPIはユーザーが提供した文書を文(sentences)に分割(chunking)し、それらの文とユーザーが提供したその他のコンテキストをClaudeに渡します。モデルはこのコンテキストを使用して回答を生成し、利用した特定の箇所を参照します。
Anthropicは、この機能にはさまざまなアプリケーションの可能性があると説明しています。例えば、以下のような用途があります:
内部テストでは、Anthropicは引用機能が、ユーザーがプロンプト内で作成したカスタム引用システムに比べてリコール精度を最大で15%向上させることを確認しました。この15%の改善は控えめに見えるかもしれませんが、著名なAI研究者であるサイモン・ウィリソン(Simon Willison)は、この機能の重要性をRetrieval-Augmented Generation (RAG)技術の統合にあると強調しています。RAGは、関連する文書の部分を取得した後、これらの断片を含む回答を生成する手法で、より正確で文脈に合った回答を提供します。
ウィリソンは、引用を使用することで精度の検証が助けられる一方で、そのシステムを一貫して構築するのは難しいと指摘しています。しかし、引用機能はRAG技術をモデルに直接統合することで、正しい方向への一歩を踏み出したようです。ウィリソンが自身のブログに書いたように、「Retrieval-Augmented Generation (RAG)の中心は、ユーザーの質問を受けて、それに関連する文書の部分を取得し、それらのテキスト断片をLLMに提供されたコンテキストに含めて質問に回答することです。」この設定により、モデルが古い情報や誤ったトレーニングデータに基づいて回答するリスクを軽減することができます。
早期導入者は、引用機能が有望な結果をもたらしていると報告しています。例えば、Thomson Reutersは、Claudeを使って法務AIリファレンスプラットフォーム「CoCounsel」を提供しており、引用機能が幻覚を最小限に抑え、AI生成コンテンツへの信頼性を高める可能性に興奮しています。また、Endexという金融テクノロジー企業は、引用機能がソースの虚偽情報を10%からゼロに減らし、同時に1回の回答あたりの参照数を20%増加させたと共有しています。
これらの有望な結果にもかかわらず、Anthropicと他の開発者は、言語モデルが正確な参照情報を伝達することに依存することは、技術がまだ進化中であるため、依然としてリスクが伴うと警告しています。同社は、この機能はAI生成コンテンツの信頼性と確実性を向上させるための広範な取り組みの一部として捉えられるべきだと強調しており、実際のアプリケーションでのさらなる開発とテストが必要だと述べています。
引用機能は、Claude 3.5 SonnetおよびClaude 3.5 Haikuモデルで利用可能で、Anthropic APIとGoogle CloudのVertex AIプラットフォームを通じて提供されています。Anthropicのトークンベースの価格設定によれば、ソース文書からのテキストを引用することは、出力トークンのコストにはカウントされません。例えば、100ページの文書を参照として使用する場合、Claude 3.5 Sonnetでは約$0.30、Claude 3.5 Haikuでは$0.08の料金がかかります。