Hoe de LangChain LLMChain-functie in Python te gebruiken

Hoe De Langchain Llmchain Functie In Python Te Gebruiken



LangChain heeft een overvloed aan modules voor het maken van taalmodeltoepassingen. Toepassingen kunnen ingewikkelder worden gemaakt door modules te combineren, of ze kunnen eenvoudiger worden gemaakt met behulp van een enkele module. Het aanroepen van een LLM op een bepaalde input is de meest essentiële LangChain-component.

Kettingen werken niet alleen voor een enkele LLM-oproep; het zijn verzamelingen oproepen, hetzij naar een LLM of een ander hulpprogramma. End-to-end ketens voor veelgebruikte applicaties worden door LangChain geleverd, samen met een standaard keten-API en tal van toolintegraties.

De flexibiliteit en mogelijkheid om meerdere elementen in één enkele entiteit te koppelen, kan handig zijn wanneer we een keten willen ontwerpen die gebruikersinvoer accepteert, deze instelt met behulp van een PromptTemplate en vervolgens het gegenereerde resultaat levert aan een LLM.







Dit artikel helpt u bij het begrijpen van het gebruik van een LangChain LLMchain-functie in Python.



Voorbeeld: hoe de LLMchain-functie in LangChain te gebruiken

We hebben het gehad over wat kettingen zijn. Nu zullen we een praktische demonstratie zien van deze ketens die zijn geïmplementeerd in een Python-script. In dit voorbeeld gebruiken we de meest eenvoudige LangChain-keten, namelijk LLMchain. Het bevat een PromptTemplate en een LLM en koppelt ze aan elkaar om een ​​uitvoer te genereren.



Om het concept te implementeren, moeten we een aantal vereiste bibliotheken installeren die niet zijn opgenomen in de Python-standaardbibliotheek. De bibliotheken die we moeten installeren zijn LangChain en OpenAI. We installeren de LangChain-bibliotheek omdat we zowel de LLMchain-module als de PromptTemplate moeten gebruiken. Met de OpenAI-bibliotheek kunnen we de modellen van OpenAI gebruiken om de uitvoer te voorspellen, d.w.z. GPT-3.





Voer de volgende opdracht uit op de terminal om de LangChain-bibliotheek te installeren:

$ pip installeer langchain

Installeer de OpenAI-bibliotheek met de volgende opdracht:



$ pip installeer openai

Zodra de installaties klaar zijn, kunnen we aan de slag met het hoofdproject.

van langketen. aanwijzingen importeren PromptTemplate

van langketen. lms importeren AI openen

importeren Jij

Jij . ongeveer [ 'OPENAI_API_KEY' ] = 'sk-UW API-SLEUTEL'

Het hoofdproject begint met het importeren van de benodigde modules. We importeren dus eerst de PromptTemplate uit de bibliotheek 'langchain.prompts'. Vervolgens importeren we de OpenAI uit de bibliotheek 'langchain.llms'. Vervolgens importeren we de 'os' om de omgevingsvariabele in te stellen.

Aanvankelijk hebben we de OpenAI API-sleutel ingesteld als de omgevingsvariabele. De omgevingsvariabele is een variabele die bestaat uit een naam en een waarde en is ingesteld op ons besturingssysteem. De 'os.environ' is een object dat wordt gebruikt om de omgevingsvariabelen in kaart te brengen. Dus we noemen de 'os.environ'. De naam die we hebben ingesteld voor de API-sleutel is OPENAI_API_KEY. Vervolgens wijzen we de API-sleutel toe als waarde. De API-sleutel is uniek voor elke gebruiker. Schrijf dus uw geheime API-sleutel wanneer u dit codescript aan het oefenen bent.

lm = AI openen ( temperatuur = 0.9 )

snel = PromptTemplate (

input_variabelen = [ 'producten' ] ,

sjabloon = 'Hoe zou een merk heten dat {products} verkoopt?' ,

)

Nu de sleutel is ingesteld als de omgevingsvariabele, initialiseren we een wrapper. Stel de temperatuur in voor de OpenAI GPT-modellen. De temperatuur is een kenmerk dat ons helpt bepalen hoe onvoorspelbaar de reactie zal zijn. Hoe hoger de temperatuurwaarde, hoe grilliger de reacties zijn. We zetten de temperatuurwaarde hier op 0,9. Zo krijgen we de meest willekeurige resultaten.

Vervolgens initialiseren we een klasse PromptTemplate. Wanneer we de LLM gebruiken, genereren we een prompt op basis van de invoer die van de gebruiker wordt gehaald en geven deze vervolgens door aan de LLM in plaats van de invoer rechtstreeks naar de LLM te sturen, waarvoor harde codering is vereist (een prompt is een invoer die we hebben overgenomen van de LLM). gebruiker en waarop het gedefinieerde AI-model een respons moet creëren). Dus initialiseren we de PromptTemplate. Vervolgens definiëren we binnen de accolades de input_variable als 'Producten' en de sjabloontekst is 'Hoe zou een merk heten dat {producten} verkoopt?' De input van de gebruiker vertelt wat het merk doet. Vervolgens wordt de prompt geformatteerd op basis van deze informatie.

van langketen. kettingen importeren LLMChain

ketting = LLMChain ( lm = lm , snel = snel )

Nu onze PromptTemplate is opgemaakt, is de volgende stap het maken van een LLMchain. Importeer eerst de LLMchain-module uit de bibliotheek 'langchain.chain'. Vervolgens maken we een keten door de functie LLMchain() aan te roepen die de gebruikersinvoer opneemt en de prompt daarmee formatteert. Ten slotte stuurt het het antwoord naar de LLM. Het verbindt dus de PromptTemplate en LLM.

afdrukken ( ketting. loop ( 'Kunst benodigdheden' ) )

Om de keten uit te voeren, roepen we de methode chain.run() aan en geven we de gebruikersinvoer als de parameter die wordt gedefinieerd als 'Art Supplies'. Vervolgens geven we deze methode door aan de Python-functie print() om de voorspelde uitkomst weer te geven op de Python-console.

Het AI-model leest de prompt en geeft op basis daarvan een reactie.

Omdat we vroegen om een ​​merk te noemen dat kunstbenodigdheden verkoopt, is de voorspelde naam door het AI-model te zien in de volgende momentopname:

Dit voorbeeld toont ons de LLMchaining wanneer een enkele invoervariabele wordt verstrekt. Dit is ook mogelijk bij het gebruik van meerdere variabelen. Daarvoor hoeven we alleen maar een woordenboek met variabelen te maken om ze allemaal in te voeren. Laten we eens kijken hoe dit werkt:

van langketen. aanwijzingen importeren PromptTemplate

van langketen. lms importeren OpenAI

importeren Jij

Jij . ongeveer [ 'OPENAI_API_KEY' ] = 'sk-Uw-API-KEY”

llm = OpenAI(temperatuur=0.9)

prompt = PromptTemplate(

invoervariabelen=['
Merk ', ' Product '],

sjabloon='
Wat zou de naam zijn van { Merk } dat verkoopt { Product } ? ',

)

van langchain.chains importeer LLMChain

keten = LLMChain(llm=llm, prompt=prompt)

print(ketting.run({

'Merk': '
Kunst benodigdheden ',

'Product': '
kleuren '

}))

De code is hetzelfde als in het vorige voorbeeld, behalve dat we twee variabelen moeten doorgeven in de prompttemplate-klasse. Maak dus een woordenboek van invoervariabelen. De lange haakjes stellen een woordenboek voor. Hier hebben we twee variabelen - 'Merk' en 'Product' - die worden gescheiden door een komma. Nu is de sjabloontekst die we leveren 'Wat zou de naam zijn van {Brand} die {Product} verkoopt?' Het AI-model voorspelt dus een naam die zich richt op deze twee invoervariabelen.

Vervolgens maken we een LLM-keten die de gebruikersinvoer formatteert met de prompt om het antwoord naar LLM te sturen. Om deze keten uit te voeren, gebruiken we de methode chain.run() en geven we het woordenboek van variabelen door met de invoer van de gebruiker als 'Merk': 'Kunstbenodigdheden' en 'Product' als 'Kleuren'. Vervolgens geven we deze methode door aan de Python-functie print() om het verkregen antwoord weer te geven.

De uitvoerafbeelding toont het voorspelde resultaat:

Conclusie

Kettingen zijn de bouwstenen van LangChain. Dit artikel gaat over het concept van het gebruik van de LLMchain in LangChain. We maakten een inleiding tot LLMchain en schetsten de noodzaak om ze in het Python-project te gebruiken. Vervolgens hebben we een praktische illustratie uitgevoerd die de implementatie van de LLM-keten demonstreert door de PromptTemplate en LLM te verbinden. U kunt deze ketens maken met een enkele invoervariabele of met meerdere door de gebruiker verstrekte variabelen. De gegenereerde reacties van het GPT-model worden ook verstrekt.