Hogyan lehet memóriaállapotot hozzáadni a lánchoz a LangChain segítségével?

Hogyan Lehet Memoriaallapotot Hozzaadni A Lanchoz A Langchain Segitsegevel



A LangChain lehetővé teszi a fejlesztők számára, hogy csevegési modelleket építsenek, amelyek természetes nyelveken tudnak beszélgetni az emberekkel. A hatékony beszélgetéshez a modellnek memóriával kell rendelkeznie arról, hogy hol tárolja a beszélgetés kontextusát. A LangChain modellek megfigyelésként tárolhatják a chat üzeneteket, így a kimenet mindig a beszélgetés kontextusában lehet

Ez az útmutató bemutatja a láncok LangChain Hubból történő betöltésének folyamatát.

Hogyan lehet memóriaállapotot hozzáadni a lánchoz a LangChain használatával?

A memória állapota használható a láncok inicializálására, mivel utalhat a láncokban tárolt legutóbbi értékre, amelyet a kimenet visszaadása során használunk. A memóriaállapotok LangChain keretrendszerrel történő láncokhoz való hozzáadásának folyamatának megismeréséhez egyszerűen kövesse ezt az egyszerű útmutatót:







1. lépés: Modulok telepítése

Először is, lépjen be a folyamatba a LangChain keretrendszer telepítésével a függőségeivel a pip paranccsal:



pip install langchain



Telepítse az OpenAI modult is, hogy megkapja a könyvtárait, amelyek segítségével memóriaállapotot adhat a lánchoz:





pip install openai

Szerezze be az API-kulcsot az OpenAI-fiókból, és állítsa be a környezetet használja, hogy a láncok hozzáférhessenek:



import te

import getpass

te . hozzávetőlegesen, körülbelül [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'OpenAI API kulcs:' )

Ez a lépés fontos a kód megfelelő működéséhez.

2. lépés: Importáljon könyvtárakat

A környezet beállítása után egyszerűen importálja a könyvtárakat a memóriaállapot hozzáadásához, mint például az LLMChain, a ConversationBufferMemory és még sok más:

tól től langchain. láncok import Beszélgetési lánc

tól től langchain. memória import ConversationBufferMemory

tól től langchain. chat_models import ChatOpenAI

tól től langchain. láncok . llm import LLMCchain

tól től langchain. felszólítja import PromptTemplate

3. lépés: Láncok építése

Most egyszerűen hozzon létre láncokat az LLM-hez az OpenAI() metódus és a prompt sablon használatával a lánc meghívásához használt lekérdezés segítségével:

csevegés = ChatOpenAI ( hőfok = 0 )

prompt_template = 'Írj {style} viccet'

llm_chain = LLMCchain ( llm = csevegés , gyors = PromptTemplate. from_template ( prompt_template ) )

llm_chain ( bemenetek = { 'stílus' : 'elcsépelt' } )

A modell a kimenetet az LLM-modell használatával jelenítette meg, az alábbi képernyőképen látható módon:

4. lépés: Memóriaállapot hozzáadása

Itt hozzáadjuk a memória állapotát a lánchoz a ConversationBufferMemory() metódussal, és futtatjuk a láncot, hogy 3 színt kapjunk a szivárványból:

beszélgetés = Beszélgetési lánc (

llm = csevegés ,

memória = ConversationBufferMemory ( )

)

beszélgetés. fuss ( 'röviden add meg a 3 színt a szivárványban' )

A modell csak a szivárvány három színét jelenítette meg, és a kontextust a lánc memóriája tárolja:

Itt a láncot egy kétértelmű paranccsal futtatjuk, mint ' másik 4? ” tehát maga a modell a memóriából veszi a kontextust, és megjeleníti a megmaradt szivárványszíneket:

beszélgetés. fuss ( 'másik 4?' )

A modell pontosan ezt tette, mivel megértette a kontextust, és visszaadta a maradék négy színt a szivárványkészletből:

Ez a láncok LangChain Hub-ról történő betöltéséről szól.

Következtetés

A memória hozzáadásához láncokban a LangChain keretrendszer használatával egyszerűen telepítsen modulokat az LLM felépítéséhez szükséges környezet beállításához. Ezután importálja a láncok felépítéséhez szükséges könyvtárakat az LLM-ben, majd adja hozzá a memória állapotát. Miután hozzáadta a memóriaállapotot a lánchoz, egyszerűen adjon ki egy parancsot a láncnak, hogy megkapja a kimenetet, majd adjon ki egy másik parancsot az előző kontextusában, hogy megkapja a helyes választ. Ez a bejegyzés a LangChain keretrendszer segítségével a láncokhoz való memóriaállapot hozzáadásának folyamatát dolgozta ki.