LangChain の LLM Streaming を Web と組み合わせたり制御したり
前回:https://ict-worker.com/ai/langchain-stream.html 前回は、 LangChain を使って、 LLM からの出力を Streaming ≒ Token 単位での出力を標準
前回:https://ict-worker.com/ai/langchain-stream.html 前回は、 LangChain を使って、 LLM からの出力を Streaming ≒ Token 単位での出力を標準
LLM の Stream って? ChatGPTの、1文字ずつ(1単語ずつ)出力されるアレ。あれは別に、時間をかけてユーザーに出力を提供することで負荷分散を図っているのではなく(多分)、 もともと LLM 自体が tok
前置き ChatGPT (GPT-3.5 or GPT-4) を仕事でも使いたいとなると、真っ先に出てくるのが QA Bot ではないでしょうか。筆者もシナリオ型の QA Bot を作ったことがありますが、細かな条件付け
忙しく仕事してるんだし、スケジュール管理とか秘書にやってほしいなぁと思ったことはないでしょうか。とはいえ、秘書のイメージはフィクションのそれで、実際にはどんなことをしてくれるのかもよく分かっていなかったりします。 そんな
前回:LangChain の Embedding と CustomAgent で発注書を作る 前回の最後で触れたように、(CustomAgentの実験としてはともかく)データベースから商品を引っ張ってきて発注書なり領収書
LangChain では、 EmbeddingAPI を使って vector search とその結果を LLM に与えて QA Bot を構築したり、あるいは ChatGPT のような記憶・履歴(Memory)を実装し
Python では Slack BOT の作成も簡単で、 LangChain を使用すれば OpenAI の API と接続して ChatBOT に LLM で応答させることも容易でした。また、Slack は、 Sock
ChatGPT PlugIn が発表され、その実体が見えてきて「そもそも自分たちで API を叩く必要なんてないんじゃないか……?」と思われてきているんじゃないかと思います。私もそう思います。 とはいえ、日本のローカルな
人間は AGI (汎用AI)だから、 AI が困っているときに助けるのは当然だよね。ということで、 LangChain の最新機能である、 human tool を触って見ます。 正直、ちょっと微妙です。これからの発展に
PC のターミナルや、Google Colab や Jupyter のノートブックで、GPT-3.5-turbo と対話するのもそれはそれで楽しいですが、やはり使いやすいフロント実装があった方が便利です。 自分用の場合は
このサイトは、がんばるお一人様 SE や、SEがいないけど IT 関連技術で生産性を高めるために日々頑張っている人を応援するサイトです。
特に予算・人手に制約のある中小企業の役に立つツールやコンテンツ、その他仕事術などを紹介しています。