Hogyan használjunk beszélgetési puffer ablakot a LangChainben?

Hogyan Hasznaljunk Beszelgetesi Puffer Ablakot A Langchainben



A LangChain az a keretrendszer, amely a Python notebookban nyelvi modellek vagy chatbotok betanítására használható gépi tanulási modellekkel. Ezeket a nyelvi modelleket arra használják, hogy az emberekkel a természetes nyelvükön beszéljenek, miután megtanították őket emberszerű nyelvekre. Ez a bejegyzés bemutatja a beszélgetési pufferablak használatának folyamatát a LangChainben.

Hogyan használjunk beszélgetési puffer ablakot a LangChainben?

A beszélgetési pufferablak a beszélgetés legfrissebb üzeneteit a memóriában tartja, hogy megkapja a legutóbbi kontextust. A K értékét használja az üzenetek vagy karakterláncok memóriában való tárolására a LangChain keretrendszer segítségével.

A LangChain beszélgetési pufferablak használatának folyamatának megismeréséhez egyszerűen kövesse az alábbi útmutatót:







1. lépés: Modulok telepítése

Indítsa el a beszélgetési pufferablak használatának folyamatát a LangChain modul telepítésével a beszélgetési modellek felépítéséhez szükséges függőségekkel:



pip install langchain



Ezután telepítse az OpenAI modult, amellyel a LangChain nagy nyelvi modelljeit készítheti:





pip install openai

Most, állítsa be az OpenAI környezetet az LLM-láncok felépítéséhez az OpenAI-fiók API-kulcsával:



import te
import getpass

te . hozzávetőlegesen, körülbelül [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'OpenAI API kulcs:' )

2. lépés: Beszélgetési puffer ablakmemória használata

A beszélgetési puffer ablakmemóriájának használatához a LangChainben importálja a ConversationBufferWindowMemory könyvtár:

tól től langchain. memória import ConversationBufferWindowMemory

Konfigurálja a memóriát a ConversationBufferWindowMemory () módszer, amelynek argumentuma k értéke. A k értékét a rendszer a beszélgetés legfrissebb üzeneteinek megtartására használja, majd a bemeneti és kimeneti változók használatával konfigurálja a betanítási adatokat:

memória = ConversationBufferWindowMemory ( k = 1 )

memória. save_context ( { 'bemenet' : 'Helló' } , { 'Kimenet' : 'Hogy vagy' } )

memória. save_context ( { 'bemenet' : 'Jó vagyok, mi van veled' } , { 'Kimenet' : 'nem sok' } )

Tesztelje a memóriát a load_memory_variables () módja a beszélgetés indításának:

memória. load_memory_variables ( { } )

A beszélgetés előzményeinek lekéréséhez konfigurálja a ConversationBufferWindowMemory() függvényt a return_messages érv:

memória = ConversationBufferWindowMemory ( k = 1 , return_messages = Igaz )

memória. save_context ( { 'bemenet' : 'Szia' } , { 'Kimenet' : 'mi a helyzet' } )

memória. save_context ( { 'bemenet' : 'nem eléggé Te' } , { 'Kimenet' : 'nem sok' } )

Most hívja meg a memóriát a gombbal load_memory_variables () módszer a válasz megszerzésére a beszélgetés előzményeivel:

memória. load_memory_variables ( { } )

3. lépés: A pufferablak használata láncban

Építse fel a láncot a OpenAI és Beszélgetési lánc könyvtárakat, majd konfigurálja a puffermemóriát a beszélgetés legfrissebb üzeneteinek tárolására:

tól től langchain. láncok import Beszélgetési lánc
tól től langchain. llms import OpenAI
#a beszélgetés összefoglalása több paraméter használatával
beszélgetés_összefoglalóval = Beszélgetési lánc (
llm = OpenAI ( hőfok = 0 ) ,
#memóriapuffer felépítése a k értékkel rendelkező függvényének használatával a legutóbbi üzenetek tárolására
memória = ConversationBufferWindowMemory ( k = 2 ) ,
#configure bőbeszédű változó az olvashatóbb kimenet érdekében
bőbeszédű = Igaz
)
beszélgetés_összefoglalóval. megjósolni ( bemenet = 'Szia mi újság' )

Most folytassa a beszélgetést a modell által szolgáltatott kimenetre vonatkozó kérdés feltevésével:

beszélgetés_összefoglalóval. megjósolni ( bemenet = 'mi a gondjuk' )

A modell úgy van beállítva, hogy csak egy korábbi üzenetet tároljon, amely kontextusként használható:

beszélgetés_összefoglalóval. megjósolni ( bemenet = 'Jól megy' )

Kérjen megoldást a problémákra, és a kimeneti struktúra tovább csúsztatja a puffer ablakot a korábbi üzenetek eltávolításával:

beszélgetés_összefoglalóval. megjósolni ( bemenet = 'Mi a megoldás' )

Ez minden a LangChain beszélgetési puffer ablakok használatának folyamatáról szól.

Következtetés

A beszélgetési puffer ablakmemóriájának használatához a LangChainben egyszerűen telepítse a modulokat, és állítsa be a környezetet az OpenAI API-kulcsával. Ezt követően építse fel a puffermemóriát a k értékével, hogy a kontextus megőrzése érdekében megtartsa a beszélgetés legfrissebb üzeneteit. A puffermemória láncokkal együtt is használható az LLM-mel vagy lánccal való beszélgetés kezdeményezésére. Ez az útmutató részletesen ismerteti a beszélgetési puffer ablakának használatát a LangChainben.