最新のプラットフォームのリリースにより、開発者は、センサーデータとエッジ分析を複数の大規模言語モデル(LLM)と組み合わせたリアルタイムアプリケーションを簡単に構築し、ミッションクリティカルで運用可能な生成AIソリューションを開発できます。 このリリースでは、市場で利用可能な多くの新しいLLMのサポートと、LLMサービスがVantiqを使用して自動アクションを実行できるようにするための生成AI機能に焦点を当てています。
追加業界をリードするLLMのサポート
Vantiqは、開発者がOpenAIのGPT4、AWS Bedrock、AnthropicのClaude.ai、MetaのLlamaなどのアプリケーションで最も一般的な大規模言語モデル(LLM)を使用できるようにします。 AWS SageMakerのVantiqサポートは、カスタム/プライベートモデルのホスティングや、Hugging Faceなどのサービスから成長しているモデルライブラリへのアクセスを可能にします。
複数のLLMを同じアプリケーションに結合する
Vantiqは、アプリケーション内で複数のモデルをオーケストレーションすることで、幻覚を減らし、リアルタイム応答の信頼性を向上させます。
LLM機能のローコード開発
Vantiqのローコードビルダーは、LLMがより多くの情報を要求したり、自動アクションを実行したりするために使用できる機能を迅速に作成できるようになりました。 つまり、人間と通信するだけでなく、ユーザーからの入力または環境からのリアルタイムデータに基づいて作業を行うために機能に動的に呼び出すLLMソリューションを構築することが可能になります。
LLM会話管理ツール
LLMのコンテキストを維持することは、Vantiqがこのリリースでサービス内の会話メモリを簡単に管理するツールを提供することで解決する一般的な開発課題です。
– プログラム会話管理ツール
– 会話メモリを自動的に保存して呼び出す
– 元のトピックから逸脱した会話を「焦点を合わせる」機能
– 1つのコラボレーションで複数の会話を維持する
Vantiqを始めたいですか? プラットフォームへのアクセスを要求するには、こちらにお問い合わせください
Vantiqの生成AI機能の詳細をご覧ください