Hoe LLM en LLMChain te bouwen in LangChain?

Hoe Llm En Llmchain Te Bouwen In Langchain



LangChain is het raamwerk met de toepassing in het Natural Language Processing- of NLP-domein om modellen in mensachtige talen te bouwen. Deze modellen kunnen door mensen worden gebruikt om antwoorden uit het model te krijgen of een gesprek te voeren zoals ieder ander mens. LangChain wordt gebruikt om ketens op te bouwen door elke zin in het gesprek op te slaan en verder te communiceren door deze als context te gebruiken.

Dit bericht illustreert het proces van het bouwen van LLM en LLMChain in LangChain.







Hoe LLM en LLMChain te bouwen in LangChain?

Om LLM en LLMChain in LangChain te bouwen, doorloopt u eenvoudigweg de vermelde stappen:



Stap 1: Modules installeren

Installeer eerst de LangChain-module om de bibliotheken te gebruiken voor het bouwen van LLM's en LLMChain:



pip installeer langchain





Een andere module die nodig is om LLM's te bouwen is OpenAI, en deze kan worden geïnstalleerd met behulp van de pip-opdracht:

pip installeer openai



Stap 2: Stel een omgeving in

Zet een omgeving op met behulp van de OpenAI API-sleutel uit zijn omgeving:

importeer ons
import getpassos.environ['OPENAI_API_KEY'] = getpass.getpass('OpenAI API-sleutel:')

Voorbeeld 1: LLM's bouwen met LangChain

Het eerste voorbeeld is het bouwen van de grote taalmodellen met LangChain door OpenAI- en ChatOpenAI-bibliotheken te importeren en de functie llm() te gebruiken:

Stap 1: Het LLM-chatmodel gebruiken

Importeer OpenAI- en ChatOpenAI-modules om een ​​eenvoudige LLM te bouwen met behulp van de OpenAI-omgeving van LangChain:

van langchain.chat_models importeer ChatOpenAI

van langchain.llms importeer OpenAI

llm = OpenAI()
chat_model = ChatOpenAI()
llm.predict('hallo!')

Het model heeft geantwoord met het “hallo” antwoord, zoals weergegeven in de volgende schermafbeelding hieronder:

De voorspellen() functie van het chat_model wordt gebruikt om het antwoord of antwoord van het model te krijgen:

chat_model.predict('hallo!')

De uitvoer geeft weer dat het model ter beschikking staat van de gebruiker die vragen stelt:

Stap 2: Tekstquery gebruiken

De gebruiker kan ook antwoorden uit het model krijgen door de volledige zin in de tekstvariabele op te geven:

text = 'Wat zou een goede bedrijfsnaam zijn voor een bedrijf dat kleurrijke sokken maakt?'

llm.predict(tekst)

Het model heeft meerdere kleurencombinaties voor kleurrijke sokken weergegeven:

Ontvang het gedetailleerde antwoord van het model met behulp van de voorspellen() functie met de kleurencombinaties voor de sokken:

chat_model.predict(tekst)

Stap 3: Tekst met inhoud gebruiken

De gebruiker kan het antwoord krijgen met een kleine uitleg over het antwoord:

van langchain.schema importeer HumanMessage

text = 'Wat zou een goede titel zijn voor een bedrijf dat kleurrijke kleding maakt'
berichten = [Menselijk bericht (inhoud = tekst)]

llm.predict_messages(berichten)

Het model heeft de titel voor het bedrijf gegenereerd, namelijk “Creative Clothing Co”:

Voorspel het bericht om het antwoord op de titel van het bedrijf te krijgen, inclusief de uitleg ervan:

chat_model.predict_messages(berichten)

Voorbeeld 2: Bouw LLMChain met LangChain

Het tweede voorbeeld van onze gids bouwt de LLMChain om het model in het formaat van menselijke interactie te krijgen en alle stappen uit het vorige voorbeeld te combineren:

van langchain.chat_models importeer ChatOpenAI
van langchain.prompts.chat importeer ChatPromptTemplate
van langchain.prompts.chat importeer ChatPromptTemplate
van langchain.prompts.chat import SystemMessagePromptTemplatevan langchain.prompts.chat import HumanMessagePromptTemplate
van langchain.chains importeer LLMChain
van langchain.schema importeer BaseOutputParserclass CommaSeparatedListOutputParser (BaseOutputParser):

def parse(zelf, tekst: str):
return tekst.strip().split(', ')

Bouw de sjabloon voor het chatmodel door een gedetailleerde uitleg te geven van de werking ervan en bouw vervolgens de functie LLMChain() die de LLM-, uitvoerparser- en chat_prompt-bibliotheken bevat:

template = '''Je moet helpen bij het genereren van door komma's gescheiden lijsten
Haal de categorie op van de gebruiker en genereer een door komma's gescheiden lijst met vijf objecten
Het enige wat het object uit de categorie ''' zou moeten zijn
system_message_prompt = SystemMessagePromptTemplate.from_template(sjabloon)
human_template = '{tekst}'
human_message_prompt = HumanMessagePromptTemplate.from_template(human_template)
#Configureer LLMChain met de structuur van de query
chat_prompt = ChatPromptTemplate.from_messages([system_message_prompt, human_message_prompt])
keten = LLMChain(
llm=ChatOpenAI(),
prompt=chat_prompt,
output_parser=CommaSeparatedListOutputParser()
)
chain.run('kleuren')

Het model heeft het antwoord gegeven met de lijst met kleuren, aangezien de categorie slechts 5 objecten mag bevatten die in de prompt worden gegeven:

Dat draait allemaal om het bouwen van de LLM en LLMChain in LangChain.

Conclusie

Om de LLM en LLMChain te bouwen met LangChain, installeert u eenvoudig de LangChain- en OpenAI-modules om een ​​omgeving op te zetten met behulp van de API-sleutel. Bouw daarna het LLM-model met behulp van het chat_model nadat u de promptsjabloon voor een enkele query tot een volledige chat hebt gemaakt. LLMChain wordt gebruikt om ketens van alle observaties in het gesprek op te bouwen en deze te gebruiken als context van de interactie. Dit bericht illustreert het proces van het bouwen van LLM en LLMChain met behulp van het LangChain-framework.