Hogyan kell használni a Pydantic (JSON) elemzőt a LangChainben?

Hogyan Kell Hasznalni A Pydantic Json Elemzot A Langchainben



A mesterséges intelligencia az egyik leggyorsabban növekvő technológia, amely gépi tanulási algoritmusokat használ a modellek betanítására és tesztelésére hatalmas adatok felhasználásával. Az adatok különböző formátumokban tárolhatók, de a LangChain használatával nagy nyelvi modellek készítéséhez a leggyakrabban használt típus a JSON. A betanítási és tesztelési adatoknak világosnak és teljesnek kell lenniük minden félreérthetőség nélkül, hogy a modell hatékonyan működhessen.

Ez az útmutató bemutatja a pydantikus JSON-elemző használatának folyamatát a LangChainben.







Hogyan kell használni a Pydantic (JSON) elemzőt a LangChainben?

A JSON-adatok az adatok szöveges formátumát tartalmazzák, amelyek webes lekaparással és sok más forrásból, például naplókból stb. gyűjthetők össze. Az adatok pontosságának ellenőrzésére a LangChain a Python pydantikus könyvtárát használja a folyamat egyszerűsítésére. A pydantikus JSON-elemző használatához a LangChainben egyszerűen kövesse ezt az útmutatót:



1. lépés: Modulok telepítése



A folyamat megkezdéséhez egyszerűen telepítse a LangChain modult, hogy a könyvtárait használja a LangChain elemző használatához:





csipog telepítés langchain



Most használja a „ pip telepítés ” parancs az OpenAI keretrendszer beszerzéséhez és erőforrásainak használatához:

csipog telepítés openai

A modulok telepítése után egyszerűen csatlakozzon az OpenAI környezethez az API kulcs megadásával a „ te ” és „ getpass ” könyvtárak:

importálni minket
import getpass

os.environ [ 'OPENAI_API_KEY' ] = getpass.getpass ( 'OpenAI API kulcs:' )

2. lépés: Könyvtárak importálása

A LangChain modul segítségével importálhatja a szükséges könyvtárakat, amelyek segítségével sablont hozhat létre a prompthoz. A prompt sablonja leírja a természetes nyelvű kérdések feltevésének módszerét, hogy a modell hatékonyan megértse a promptot. Ezenkívül importáljon könyvtárakat, például az OpenAI-t és a ChatOpenAI-t, hogy LLM-eket használva láncokat hozzon létre egy chatbot felépítéséhez:

a langchain.prompts importból (
PromptTemplate,
ChatPromptTemplate,
HumanMessagePromptTemplate,
)
a langchain.llms-ből importálja az OpenAI-t
a langchain.chat_models webhelyről importálja a ChatOpenAI-t

Ezt követően importáljon pydantikus könyvtárakat, például a BaseModelt, a Field-et és a validátort a JSON-elemző használatához a LangChainben:

a langchain.output_parsers webhelyről importálja a PydanticOutputParser-t
pydantic importból BaseModel, Field, validator
az importlista beírásából

3. lépés: Modell készítése

Miután megszerezte a pydantic JSON-elemző használatához szükséges összes könyvtárat, egyszerűen szerezze be az előre megtervezett tesztelt modellt az OpenAI() metódussal:

modell_neve = 'text-davinci-003'
hőmérséklet = 0.0
modell = OpenAI ( modell név =modell_neve, hőfok = hőmérséklet )

4. lépés: Az Actor BaseModel konfigurálása

Készítsen egy másik modellt, hogy válaszokat kapjon a színészekre, például a nevükre és a filmjeikre, ha elkéri a színész filmográfiáját:

osztályú Színész ( BaseModel ) :
név: str = Mező ( leírás = 'A főszereplő neve' )
film_names: Lista [ str ] = Mező ( leírás = 'Filmek, amelyekben a színész szerepelt' )


színész_lekérdezés = 'Bármelyik színész filmográfiáját szeretném látni'

parser = PydanticOutputParser ( pydantic_object = Színész )

prompt = PromptTemplate (
sablon = 'Válaszoljon a felhasználó kérdésére. \n {formátum_utasítások} \n {lekérdezés} \n ' ,
bemeneti_változók = [ 'lekérdezés' ] ,
részleges_változók = { 'formátum_utasítások' : parser.get_format_instructions ( ) } ,
)

5. lépés: Az alapmodell tesztelése

Egyszerűen szerezze be a kimenetet a parse() függvény segítségével a prompthoz generált eredményeket tartalmazó kimeneti változóval:

_input = prompt.format_prompt ( lekérdezés =színész_lekérdezés )
kimenet = modell ( _input.to_string ( ) )
elemző.elemzés ( Kimenet )

A színész, akit ' Tom Hanks ” filmjei listájával a pydantic függvény segítségével lett lekérve a modellből:

Ez minden a pydantikus JSON-elemző használatáról szól a LangChainben.

Következtetés

A pydantikus JSON-elemző használatához a LangChainben egyszerűen telepítse a LangChain és az OpenAI modulokat, hogy csatlakozzon az erőforrásokhoz és a könyvtárakhoz. Ezután importáljon könyvtárakat, például az OpenAI-t és a pydantic-ot, hogy létrehozzon egy alapmodellt, és ellenőrizze az adatokat JSON-formátumban. Az alapmodell felépítése után futtassa a parse() függvényt, és az visszaadja a prompt válaszait. Ez a bejegyzés bemutatta a pydantic JSON-elemző használatának folyamatát a LangChainben.