Hogyan használjunk beszélgetési token puffert a LangChainben?

Hogyan Hasznaljunk Beszelgetesi Token Puffert A Langchainben



A LangChain lehetővé teszi a fejlesztők számára, hogy gépi tanulással vagy mély tanulással modelleket építsenek, amelyek az adatkészletek segítségével modelleket képezhetnek. Ezek a modellek különböző mintákat kaphatnak az adatokból, vagy megérthetik az adatkészlet formáját és nyelvét az információk kinyeréséhez. A nagy nyelvi modellek vagy LLM-ek konfigurálhatók vagy tervezhetők a LangChain keretrendszerek segítségével, amelyek képesek megérteni és természetes nyelvű szöveget generálni.

Ez az útmutató bemutatja a beszélgetési token puffer használatának folyamatát a LangChainben.

Hogyan használjunk beszélgetési token puffert a LangChainben?

A ConversationTokenBufferMemory könyvtár importálható a LangChain keretrendszerből, hogy a legfrissebb üzeneteket tárolja a puffermemóriában. A tokenek úgy konfigurálhatók, hogy korlátozzák a pufferben tárolt üzenetek számát, és a korábbi üzenetek automatikusan kiürülnek.







A beszélgetési token puffer használatának folyamatának megismeréséhez a LangChainben használja a következő útmutatót:



1. lépés: Modulok telepítése

Először telepítse az összes szükséges modult tartalmazó LangChain keretrendszert a pip paranccsal:



pip install langchain





Most telepítse az OpenAI modult az LLM-ek és láncok OpenAI() metódussal történő felépítéséhez:

pip install openai



A modulok telepítése után egyszerűen használja az OpenAI API kulcsát állítsa be a környezetet az operációs rendszer és a getpass könyvtárak használatával:

import te

import getpass

te . hozzávetőlegesen, körülbelül [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'OpenAI API kulcs:' )

2. lépés: Beszélgetési token puffermemória használata

Az LLM-ek létrehozása az OpenAI() metódussal az importálás után ConversationTokenBufferMemory könyvtár a LangChain keretrendszerből:

tól től langchain. memória import ConversationTokenBufferMemory

tól től langchain. llms import OpenAI

llm = OpenAI ( )

Konfigurálja a memóriát a token beállításához, kiüríti a régi üzeneteket és eltárolja a puffermemóriában. Ezután tárolja a beszélgetés üzeneteit, és szerezze be a legfrissebbeket, hogy kontextusként használja őket:

memória = ConversationTokenBufferMemory ( llm = llm , max_token_limit = 10 )

memória. save_context ( { 'bemenet' : 'Helló' } , { 'Kimenet' : 'Hogy vagy' } )

memória. save_context ( { 'bemenet' : 'Jó vagyok, mi van veled' } , { 'Kimenet' : 'nem sok' } )

Futtassa le a memóriát a puffermemóriában tárolt adatok lekéréséhez a load_memory_variables() metódussal:

memória. load_memory_variables ( { } )

3. lépés: Beszélgetési token puffermemória használata láncban

Építse fel a láncokat a Beszélgetési lánc() metódus több argumentummal a beszélgetési token puffermemória használatához:

tól től langchain. láncok import Beszélgetési lánc

beszélgetés_összefoglalóval = Beszélgetési lánc (
llm = llm ,
memória = ConversationTokenBufferMemory ( llm = OpenAI ( ) , max_token_limit = 60 ) ,
bőbeszédű = Igaz ,
)
beszélgetés_összefoglalóval. megjósolni ( bemenet = 'Szia mi újság?' )

Most indítsa el a beszélgetést úgy, hogy kérdéseket tesz fel a természetes nyelven írt felszólítások segítségével:

beszélgetés_összefoglalóval. megjósolni ( bemenet = 'Csak az NLP projekten dolgozom' )

Szerezze le a kimenetet a puffermemóriában tárolt adatokból a tokenek számával:

beszélgetés_összefoglalóval. megjósolni ( bemenet = 'Csak az LLM-ek tervezésén dolgozom' )

A puffer minden új bemenettel folyamatosan frissül, mivel a korábbi üzenetek rendszeresen kiürülnek:

beszélgetés_összefoglalóval. megjósolni (

bemenet = 'LLM LangChain használatával! Hallottál már róla'

)

Ez minden a LangChain beszélgetési token pufferének használatáról szól.

Következtetés

A beszélgetési jogkivonat pufferének használatához a LangChainben egyszerűen telepítse a modulokat a környezet beállításához az OpenAI-fiók API-kulcsával. Ezután importálja a ConversationTokenBufferMemory könyvtárat a LangChain modul segítségével, hogy a beszélgetést a pufferben tárolja. A puffermemória láncban használható a régebbi üzenetek kiürítésére a chat minden új üzenetével. Ez a bejegyzés a LangChain beszélgetési jogkivonat puffermemóriájának használatával foglalkozik.