Ez az útmutató bemutatja a beszélgetési token puffer használatának folyamatát a LangChainben.
Hogyan használjunk beszélgetési token puffert a LangChainben?
A ConversationTokenBufferMemory könyvtár importálható a LangChain keretrendszerből, hogy a legfrissebb üzeneteket tárolja a puffermemóriában. A tokenek úgy konfigurálhatók, hogy korlátozzák a pufferben tárolt üzenetek számát, és a korábbi üzenetek automatikusan kiürülnek.
A beszélgetési token puffer használatának folyamatának megismeréséhez a LangChainben használja a következő útmutatót:
1. lépés: Modulok telepítése
Először telepítse az összes szükséges modult tartalmazó LangChain keretrendszert a pip paranccsal:
pip install langchain
Most telepítse az OpenAI modult az LLM-ek és láncok OpenAI() metódussal történő felépítéséhez:
pip install openai
A modulok telepítése után egyszerűen használja az OpenAI API kulcsát állítsa be a környezetet az operációs rendszer és a getpass könyvtárak használatával:
import teimport getpass
te . hozzávetőlegesen, körülbelül [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'OpenAI API kulcs:' )
2. lépés: Beszélgetési token puffermemória használata
Az LLM-ek létrehozása az OpenAI() metódussal az importálás után ConversationTokenBufferMemory könyvtár a LangChain keretrendszerből:
tól től langchain. memória import ConversationTokenBufferMemorytól től langchain. llms import OpenAI
llm = OpenAI ( )
Konfigurálja a memóriát a token beállításához, kiüríti a régi üzeneteket és eltárolja a puffermemóriában. Ezután tárolja a beszélgetés üzeneteit, és szerezze be a legfrissebbeket, hogy kontextusként használja őket:
memória = ConversationTokenBufferMemory ( llm = llm , max_token_limit = 10 )memória. save_context ( { 'bemenet' : 'Helló' } , { 'Kimenet' : 'Hogy vagy' } )
memória. save_context ( { 'bemenet' : 'Jó vagyok, mi van veled' } , { 'Kimenet' : 'nem sok' } )
Futtassa le a memóriát a puffermemóriában tárolt adatok lekéréséhez a load_memory_variables() metódussal:
memória. load_memory_variables ( { } )
3. lépés: Beszélgetési token puffermemória használata láncban
Építse fel a láncokat a Beszélgetési lánc() metódus több argumentummal a beszélgetési token puffermemória használatához:
tól től langchain. láncok import Beszélgetési láncbeszélgetés_összefoglalóval = Beszélgetési lánc (
llm = llm ,
memória = ConversationTokenBufferMemory ( llm = OpenAI ( ) , max_token_limit = 60 ) ,
bőbeszédű = Igaz ,
)
beszélgetés_összefoglalóval. megjósolni ( bemenet = 'Szia mi újság?' )
Most indítsa el a beszélgetést úgy, hogy kérdéseket tesz fel a természetes nyelven írt felszólítások segítségével:
beszélgetés_összefoglalóval. megjósolni ( bemenet = 'Csak az NLP projekten dolgozom' )
Szerezze le a kimenetet a puffermemóriában tárolt adatokból a tokenek számával:
beszélgetés_összefoglalóval. megjósolni ( bemenet = 'Csak az LLM-ek tervezésén dolgozom' )
A puffer minden új bemenettel folyamatosan frissül, mivel a korábbi üzenetek rendszeresen kiürülnek:
beszélgetés_összefoglalóval. megjósolni (bemenet = 'LLM LangChain használatával! Hallottál már róla'
)
Ez minden a LangChain beszélgetési token pufferének használatáról szól.
Következtetés
A beszélgetési jogkivonat pufferének használatához a LangChainben egyszerűen telepítse a modulokat a környezet beállításához az OpenAI-fiók API-kulcsával. Ezután importálja a ConversationTokenBufferMemory könyvtárat a LangChain modul segítségével, hogy a beszélgetést a pufferben tárolja. A puffermemória láncban használható a régebbi üzenetek kiürítésére a chat minden új üzenetével. Ez a bejegyzés a LangChain beszélgetési jogkivonat puffermemóriájának használatával foglalkozik.