Hasura GraphQL Engine および 上に構築された、最新の ChatGPT API を利用したドキュメントに従って質問に応答する Discord ボットLangChain.
あなたは私たちの Discord でボットを試す準備ができています、発表の詳細については、こちらをご覧ください
そのポイントは以下を具現化します: Hasura の機会に応じた非同期構造 (料金制限あり) Hasura のストリーミング サブスクリプション上に構築されたパフォーマンスの高い Discord ボット 自分のうなりネタをボットに取り込むスキル 偽の回答を最小限に抑えながら、GPT-3 に情報源を認識させるように指示されました。
私たち Hasura は一貫して、配管の世話をする方が優れていると考えています。問題。 したがって、 text-davinci-003 が出てきたので、Discord で当人の尋問を解決するチャンスを見ました.
bot, Hasuraのドキュメント/ブログ/学習機能を利用してください. 回答の際は必ず出典を記載してください.
インストール
Hasura Pod42のセットアップ手順
設定
ワンクリックで Hasura Cloud にデプロイして、すぐに開始する準備が整いました:
Pod42 は 3成分構造
ディスコードボット:
設定
ワンクリックで Hasura Cloud にデプロイして、すぐに開始する準備が整いました:
Pod42 は 3成分構造
ディスコードボット:
サブスクリプションを利用して、忠実な時間に答えを聞いてください。
ハスラ: マッチ トリガーとサブスクリプションを利用した完全非同期オーケストレーター。 サブスクリプションにより、Discord ボットへの回答をその場で発送できます。タスク: ブランドの現在の尋問が来たときの場所オフ ワークフロー。
Resolution が到着したら、サブスクリプションを介して顧客に主張します。 サーバーレス関数/コンテナ: クラウド上に機能として展開することを口外しないステートレス。 タスク: 上位の K-connected ドキュメントを取得するベクター小売業者からの抜粋. OpenAIへの質問とともにそれらを1つのドキュメントに混在させます. Hasura の GraphQL API を利用して確認応答を永続化します。
ハスラの演習問題については、答えの正しさを強調したいと思います。 Pod42 が「わからない」と言った方が、承認をブラフするよりも有利です。 私たちはそれについて発見します gpt-3.5-turbo
は、その点で非常に優れています。 または、さらに冗長ではありませんが、多くの現在の顧客は、基本的なポイントとレイテンシーのフレーズを気に入っています gpt-3.5-turbo は、最大 60% 速くなります
さらに、ファイルの受け渡しセクション 人
せっかくの機能はとりあえずvs. の方が秀逸デザイン 関数. すべての例は、同じ促されたファイルとベクトルの小売業者ファイルを実行します。

例:Docsに承認が存在する場合text-davinci-003
サーバーレス関数/コンテナ: クラウド上に機能として展開することを口外しないステートレス。 タスク: 上位の K-connected ドキュメントを取得するベクター小売業者からの抜粋. OpenAIへの質問とともにそれらを1つのドキュメントに混在させます. Hasura の GraphQL API を利用して確認応答を永続化します。
ハスラの演習問題については、答えの正しさを強調したいと思います。 Pod42 が「わからない」と言った方が、承認をブラフするよりも有利です。 私たちはそれについて発見します gpt-3.5-turbo
は、その点で非常に優れています。 または、さらに冗長ではありませんが、多くの現在の顧客は、基本的なポイントとレイテンシーのフレーズを気に入っています gpt-3.5-turbo は、最大 60% 速くなります
さらに、ファイルの受け渡しセクション 人
せっかくの機能はとりあえずvs. の方が秀逸デザイン 関数. すべての例は、同じ促されたファイルとベクトルの小売業者ファイルを実行します。

例:Docsに承認が存在する場合text-davinci-003
text-davinci-003 :
上記の認識は完全に誤りです。 Discord がテキスト @Cache.
gpt-3.5-ターボ :
上記は強く認めてください。 また、尋問をよりよくクイズし、どのレベルで次の最終結果が得られるかをその人に促します.
gpt-3.5-turbo
:
text-davinci-003