Amazon Web Services(AWS)は、生成AI開発サービスであるAmazon Bedrockを更新した。この更新には、新たなコンテクストグラウンディング機能、RAG(リトリーバル拡張生成)コネクタ、そして追加の大規模言語モデル(LLM)が含まれている。
これにより、企業が生成AIベースのアプリケーションを開発する際の負担が軽減される見込みであると、AWSの生成AI担当副社長であるヴァシ・フィロミン氏は述べている。
コンテクストグラウンディングは、LLMの応答が適切な企業データに基づいているかどうかを確認し、ユーザーのクエリや指示に沿った内容であるかを検証するものである。
Amazon Bedrockに新機能が追加
Amazon Web Services(AWS)は、生成AI開発サービスであるAmazon Bedrockに新たな機能を追加した。この更新には、コンテクストグラウンディング機能、RAG(リトリーバル拡張生成)コネクタ、追加の大規模言語モデル(LLM)が含まれている。これにより、企業が生成AIベースのアプリケーションを開発する際の負担が軽減される見込みであると、AWSの生成AI担当副社長であるヴァシ・フィロミン氏は述べている。
新機能の一つであるコンテクストグラウンディングは、アプリケーションの信頼性を向上させるものである。この機能は、LLMの応答が適切な企業データに基づいているかどうかを確認し、ユーザーのクエリや指示に沿った内容であるかを検証する。これにより、不適切な応答や幻覚的な応答の発生が大幅に減少することが期待される。
また、RAGコネクタの追加により、開発者はより多様なデータソースを活用できるようになる。これまでAmazon S3のみが対応していたが、新たにSalesforce、Confluence、SharePointなども利用可能となった。特にSharePointコネクタは現在プレビュー中であり、今後の展開が注目される。
さらに、AWSはAnthropicのClaude 3 HaikuをBedrock内で微調整できる機能も追加した。この機能は現在プレビュー中であり、他のクラウドサービスプロバイダでは提供されていないため、企業ユーザーからの高い需要が見込まれている。
コンテクストグラウンディングで信頼性向上
コンテクストグラウンディングは、生成AIの応答の信頼性を高めるために導入された機能である。この機能は、LLMの応答がユーザーのクエリや指示に適合しているかを検証する。具体的には、RAGと要約アプリケーションを使用して、モデルの応答に幻覚が含まれていないかを検出する仕組みである。
フィロミン氏によると、この新機能は、生成AIアプリケーションが不適切な応答を出すリスクを減少させるものである。多くの企業が生成AIを活用する際、誤った情報や幻覚的な応答が大きな問題となることが多いが、コンテクストグラウンディングはその問題を解決する手段となる。
他の主要なクラウドサービスプロバイダも、同様の信頼性評価システムを提供している。例えば、MicrosoftはGroundedness Detection APIを使用して、LLMのテキスト応答がユーザー提供のソースに基づいているかをチェックしている。また、GoogleはVertex AI内での動的リトリーバルや高忠実度モードなどの機能を更新している。
AWSも、Amazon Bedrock内でRAG評価と可観測性機能を提供しており、これにより応答の信頼性をベンチマークすることが可能である。これらの機能を利用することで、企業はより安心して生成AIを活用できるようになると考えられる。
RAGコネクタの導入でデータソース拡大
RAG(リトリーバル拡張生成)コネクタの導入により、Amazon Bedrockはさらに多様なデータソースに対応するようになった。これまでAmazon S3のみが対応していたが、新たにSalesforce、Confluence、SharePointなどのコネクタが追加された。特にSharePointコネクタは現在プレビュー中であり、今後の展開が注目される。
この拡張により、開発者はより多くのデータソースを統合して、より精度の高い生成AIモデルを構築することが可能となる。フィロミン氏は、これにより企業が持つ多様なデータを最大限に活用できるようになると述べている。RAGコネクタは、データソース間の連携を強化し、生成AIの応答の品質を向上させるものである。
AWSはまた、RAG評価と可観測性機能も提供しており、これにより生成AIの応答の信頼性をベンチマークすることができる。評価指標としては、応答の忠実性、関連性、意味的類似性などが含まれており、これらの指標を用いてモデルの性能を評価する。
他の主要なクラウドサービスプロバイダも、RAGアプリケーションの信頼性を評価するシステムを提供している。MicrosoftやGoogleも同様の機能を持っており、これにより企業はより信頼性の高い生成AIソリューションを利用できるようになる。AWSのRAGコネクタの導入は、企業が持つデータ資源を最大限に活用し、生成AIの応答の品質を向上させるための重要なステップである。
AWS App StudioとAmazon Q Appsの新展開
AWSは新たにAWS App Studioを発表し、企業ユーザーが自然言語プロンプトを使用してアプリケーションを構築・展開できるようにした。AWS App Studioは、生成AIベースのマネージドサービスであり、ユーザーが望むアプリケーションの内容やデータソースを自然言語で記述するだけで、数分でアプリケーションを生成することが可能である。
これにより、従来はプロの開発者が数日かけて行っていた作業を大幅に短縮することができる。AWSの声明によると、App Studioの生成AIアシスタントは、ローコードツールの学習を必要としないため、ユーザーはすぐに利用を開始できる。この機能は、GoogleのVertex AI StudioやMicrosoftのCopilot Studioと競合するものであり、企業ユーザーにとって大きな利便性を提供する。
さらに、AWSはAmazon Q Appsの一般提供も発表した。Amazon Q Appsは、昨年のAWS re:Inventで紹介されたAmazon Q Businessの一部であり、企業ユーザーが会話から生成AIベースのアプリケーションを瞬時に生成できる機能を提供する。ユーザーはプロンプトを通じて希望するアプリケーションを記述するだけで、Amazon Qが即座にアプリを生成する。
Amazon Q Appsは、既存の会話からアプリを生成する能力を持ち、企業ユーザーが持つデータに基づいて迅速にアプリケーションを開発できる。このような新機能は、企業が迅速に市場ニーズに対応し、競争力を維持するための強力なツールとなる。