Hoe gebruik ik een gesprekssamenvatting in LangChain?

Hoe Gebruik Ik Een Gesprekssamenvatting In Langchain



LangChain is het raamwerk dat kan worden gebruikt om taalmodellen te bouwen met behulp van de enorme hoeveelheid trainingsdatasets die in natuurlijke talen zijn gebouwd. LangChain biedt de bibliotheken en afhankelijkheden die kunnen worden gebruikt om chatbots en taalmodellen zoals LLM's te bouwen en te beheren. Deze modellen worden meestal beschouwd als machines waarmee u een gesprek kunt voeren of informatie kunt extraheren op basis van aanwijzingen die in mensachtige talen zijn geschreven.

Deze gids illustreert het proces van het gebruik van een gesprekssamenvatting in LangChain.

Hoe gebruik ik een gesprekssamenvatting in LangChain?

LangChain biedt bibliotheken zoals ConversationSummaryMemory die de volledige samenvatting van de chat of het gesprek kunnen extraheren. Het kan worden gebruikt om de belangrijkste informatie van het gesprek te verkrijgen zonder dat u alle berichten en tekst die beschikbaar zijn in de chat hoeft te lezen.







Om het proces van het gebruik van de gesprekssamenvatting in LangChain te leren, volgt u eenvoudigweg de volgende stappen:



Stap 1: Modules installeren

Installeer eerst het LangChain-framework om de afhankelijkheden of bibliotheken op te halen met behulp van de volgende code:



pip installeer langchain





Installeer nu de OpenAI-modules na het installeren van de LangChain met behulp van de pip-opdracht:

pip installeer openai



Na het installeren van de modules eenvoudig de omgeving opzetten gebruik de volgende code nadat u de API-sleutel van het OpenAI-account heeft opgehaald:

importeren Jij

importeren Krijg een pas

Jij . ongeveer [ 'OPENAI_API_KEY' ] = Krijg een pas . Krijg een pas ( 'OpenAI API-sleutel:' )

Stap 2: Gesprekssamenvatting gebruiken

Begin met het gebruik van de gesprekssamenvatting door de bibliotheken uit LangChain te importeren:

van langketen. geheugen importeren GesprekSamenvattingGeheugen , ChatberichtGeschiedenis

van langketen. llms importeren OpenAI

Configureer het geheugen van het model met behulp van de methoden ConversationSummaryMemory() en OpenAI() en sla de gegevens daarin op:

geheugen = GesprekSamenvattingGeheugen ( llm = OpenAI ( temperatuur = 0 ) )

geheugen. bewaar_context ( { 'invoer' : 'Hallo' } , { 'uitvoer' : 'Hoi' } )

Voer het geheugen uit door de laad_geheugen_variabelen() methode om de gegevens uit het geheugen te extraheren:

geheugen. laad_geheugen_variabelen ( { } )

De gebruiker kan de gegevens ook in de vorm van een gesprek krijgen, zoals elke entiteit met een afzonderlijk bericht:

geheugen = GesprekSamenvattingGeheugen ( llm = OpenAI ( temperatuur = 0 ) , return_messages = WAAR )

geheugen. bewaar_context ( { 'invoer' : 'Hallo' } , { 'uitvoer' : 'Hallo! Hoe gaat het met je' } )

Om de boodschap van AI en mensen afzonderlijk te krijgen, voert u de methode load_memory_variables() uit:

geheugen. laad_geheugen_variabelen ( { } )

Sla de samenvatting van het gesprek op in het geheugen en voer vervolgens het geheugen uit om de samenvatting van de chat/gesprek op het scherm weer te geven:

berichten = geheugen. chat_geheugen . berichten

vorige_samenvatting = ''

geheugen. voorspellen_nieuwe_samenvatting ( berichten , vorige_samenvatting )

Stap 3: Gesprekssamenvatting gebruiken met bestaande berichten

De gebruiker kan ook een samenvatting krijgen van het gesprek dat buiten de klas of chat plaatsvindt met behulp van het ChatMessageHistory()-bericht. Deze berichten kunnen aan het geheugen worden toegevoegd, zodat het automatisch de samenvatting van het volledige gesprek kan genereren:

geschiedenis = ChatberichtGeschiedenis ( )

geschiedenis. voeg_gebruiker_bericht toe ( 'Hoi' )

geschiedenis. voeg_ai_bericht toe ( 'Hoi!' )

Bouw het model zoals LLM met behulp van de OpenAI()-methode om de bestaande berichten in de chat_geheugen variabele:

geheugen = GesprekSamenvattingGeheugen. van_berichten (
llm = OpenAI ( temperatuur = 0 ) ,
chat_geheugen = geschiedenis ,
return_messages = WAAR
)

Voer het geheugen uit met behulp van de buffer om de samenvatting van de bestaande berichten te krijgen:

geheugen. buffer

Voer de volgende code uit om de LLM te bouwen door het buffergeheugen te configureren met behulp van de chatberichten:

geheugen = GesprekSamenvattingGeheugen (
llm = OpenAI ( temperatuur = 0 ) ,
buffer = '''De mens vraagt ​​de vraagtmachine naar zichzelf
Het systeem antwoordt dat AI voor het goede is gebouwd, omdat het mensen kan helpen hun potentieel te verwezenlijken.
,
chat_geheugen = geschiedenis ,
return_messages = WAAR
)

Stap 4: Gesprekssamenvatting in keten gebruiken

De volgende stap legt het proces uit van het gebruik van de gesprekssamenvatting in een keten met behulp van de LLM:

van langketen. llms importeren OpenAI
van langketen. kettingen importeren ConversatieKeten
llm = OpenAI ( temperatuur = 0 )
gesprek_met_samenvatting = ConversatieKeten (
llm = llm ,
geheugen = GesprekSamenvattingGeheugen ( llm = OpenAI ( ) ) ,
uitgebreid = WAAR
)
gesprek_met_samenvatting. voorspellen ( invoer = 'Hallo hoe is het' )

Hier zijn we begonnen met het opbouwen van ketens door het gesprek te beginnen met een beleefde vraag:

Ga nu het gesprek aan door wat meer te vragen over de laatste uitvoer om er verder op in te gaan:

gesprek_met_samenvatting. voorspellen ( invoer = 'Vertel me er meer over!' )

Het model heeft het laatste bericht uitgelegd met een gedetailleerde introductie over de AI-technologie of chatbot:

Haal een aandachtspunt uit de vorige uitvoer om het gesprek in een specifieke richting te sturen:

gesprek_met_samenvatting. voorspellen ( invoer = 'Geweldig Hoe goed is dit project?' )

Hier krijgen we gedetailleerde antwoorden van de bot met behulp van de geheugenbibliotheek met gespreksoverzichten:

Dat gaat allemaal over het gebruik van de gesprekssamenvatting in LangChain.

Conclusie

Om het gespreksoverzichtsbericht in LangChain te gebruiken, installeert u eenvoudig de modules en raamwerken die nodig zijn om de omgeving in te stellen. Zodra de omgeving is ingesteld, importeert u het GesprekSamenvattingGeheugen bibliotheek om LLM's te bouwen met behulp van de OpenAI()-methode. Gebruik daarna eenvoudigweg de gesprekssamenvatting om de gedetailleerde uitvoer uit de modellen te extraheren, wat de samenvatting is van het vorige gesprek. In deze gids wordt dieper ingegaan op het proces van het gebruik van het samenvattingsgeheugen van gesprekken met behulp van de LangChain-module.