Deze gids illustreert het proces van het gebruik van een gesprekssamenvatting in LangChain.
Hoe gebruik ik een gesprekssamenvatting in LangChain?
LangChain biedt bibliotheken zoals ConversationSummaryMemory die de volledige samenvatting van de chat of het gesprek kunnen extraheren. Het kan worden gebruikt om de belangrijkste informatie van het gesprek te verkrijgen zonder dat u alle berichten en tekst die beschikbaar zijn in de chat hoeft te lezen.
Om het proces van het gebruik van de gesprekssamenvatting in LangChain te leren, volgt u eenvoudigweg de volgende stappen:
Stap 1: Modules installeren
Installeer eerst het LangChain-framework om de afhankelijkheden of bibliotheken op te halen met behulp van de volgende code:
pip installeer langchain
Installeer nu de OpenAI-modules na het installeren van de LangChain met behulp van de pip-opdracht:
pip installeer openai
Na het installeren van de modules eenvoudig de omgeving opzetten gebruik de volgende code nadat u de API-sleutel van het OpenAI-account heeft opgehaald:
importeren Jijimporteren Krijg een pas
Jij . ongeveer [ 'OPENAI_API_KEY' ] = Krijg een pas . Krijg een pas ( 'OpenAI API-sleutel:' )
Stap 2: Gesprekssamenvatting gebruiken
Begin met het gebruik van de gesprekssamenvatting door de bibliotheken uit LangChain te importeren:
van langketen. geheugen importeren GesprekSamenvattingGeheugen , ChatberichtGeschiedenisvan langketen. llms importeren OpenAI
Configureer het geheugen van het model met behulp van de methoden ConversationSummaryMemory() en OpenAI() en sla de gegevens daarin op:
geheugen = GesprekSamenvattingGeheugen ( llm = OpenAI ( temperatuur = 0 ) )geheugen. bewaar_context ( { 'invoer' : 'Hallo' } , { 'uitvoer' : 'Hoi' } )
Voer het geheugen uit door de laad_geheugen_variabelen() methode om de gegevens uit het geheugen te extraheren:
geheugen. laad_geheugen_variabelen ( { } )
De gebruiker kan de gegevens ook in de vorm van een gesprek krijgen, zoals elke entiteit met een afzonderlijk bericht:
geheugen = GesprekSamenvattingGeheugen ( llm = OpenAI ( temperatuur = 0 ) , return_messages = WAAR )geheugen. bewaar_context ( { 'invoer' : 'Hallo' } , { 'uitvoer' : 'Hallo! Hoe gaat het met je' } )
Om de boodschap van AI en mensen afzonderlijk te krijgen, voert u de methode load_memory_variables() uit:
geheugen. laad_geheugen_variabelen ( { } )
Sla de samenvatting van het gesprek op in het geheugen en voer vervolgens het geheugen uit om de samenvatting van de chat/gesprek op het scherm weer te geven:
berichten = geheugen. chat_geheugen . berichtenvorige_samenvatting = ''
geheugen. voorspellen_nieuwe_samenvatting ( berichten , vorige_samenvatting )
Stap 3: Gesprekssamenvatting gebruiken met bestaande berichten
De gebruiker kan ook een samenvatting krijgen van het gesprek dat buiten de klas of chat plaatsvindt met behulp van het ChatMessageHistory()-bericht. Deze berichten kunnen aan het geheugen worden toegevoegd, zodat het automatisch de samenvatting van het volledige gesprek kan genereren:
geschiedenis = ChatberichtGeschiedenis ( )geschiedenis. voeg_gebruiker_bericht toe ( 'Hoi' )
geschiedenis. voeg_ai_bericht toe ( 'Hoi!' )
Bouw het model zoals LLM met behulp van de OpenAI()-methode om de bestaande berichten in de chat_geheugen variabele:
geheugen = GesprekSamenvattingGeheugen. van_berichten (llm = OpenAI ( temperatuur = 0 ) ,
chat_geheugen = geschiedenis ,
return_messages = WAAR
)
Voer het geheugen uit met behulp van de buffer om de samenvatting van de bestaande berichten te krijgen:
geheugen. buffer
Voer de volgende code uit om de LLM te bouwen door het buffergeheugen te configureren met behulp van de chatberichten:
geheugen = GesprekSamenvattingGeheugen (llm = OpenAI ( temperatuur = 0 ) ,
buffer = '''De mens vraagt de vraagtmachine naar zichzelf
Het systeem antwoordt dat AI voor het goede is gebouwd, omdat het mensen kan helpen hun potentieel te verwezenlijken. ,
chat_geheugen = geschiedenis ,
return_messages = WAAR
)
Stap 4: Gesprekssamenvatting in keten gebruiken
De volgende stap legt het proces uit van het gebruik van de gesprekssamenvatting in een keten met behulp van de LLM:
van langketen. llms importeren OpenAIvan langketen. kettingen importeren ConversatieKeten
llm = OpenAI ( temperatuur = 0 )
gesprek_met_samenvatting = ConversatieKeten (
llm = llm ,
geheugen = GesprekSamenvattingGeheugen ( llm = OpenAI ( ) ) ,
uitgebreid = WAAR
)
gesprek_met_samenvatting. voorspellen ( invoer = 'Hallo hoe is het' )
Hier zijn we begonnen met het opbouwen van ketens door het gesprek te beginnen met een beleefde vraag:
Ga nu het gesprek aan door wat meer te vragen over de laatste uitvoer om er verder op in te gaan:
gesprek_met_samenvatting. voorspellen ( invoer = 'Vertel me er meer over!' )Het model heeft het laatste bericht uitgelegd met een gedetailleerde introductie over de AI-technologie of chatbot:
Haal een aandachtspunt uit de vorige uitvoer om het gesprek in een specifieke richting te sturen:
gesprek_met_samenvatting. voorspellen ( invoer = 'Geweldig Hoe goed is dit project?' )Hier krijgen we gedetailleerde antwoorden van de bot met behulp van de geheugenbibliotheek met gespreksoverzichten:
Dat gaat allemaal over het gebruik van de gesprekssamenvatting in LangChain.
Conclusie
Om het gespreksoverzichtsbericht in LangChain te gebruiken, installeert u eenvoudig de modules en raamwerken die nodig zijn om de omgeving in te stellen. Zodra de omgeving is ingesteld, importeert u het GesprekSamenvattingGeheugen bibliotheek om LLM's te bouwen met behulp van de OpenAI()-methode. Gebruik daarna eenvoudigweg de gesprekssamenvatting om de gedetailleerde uitvoer uit de modellen te extraheren, wat de samenvatting is van het vorige gesprek. In deze gids wordt dieper ingegaan op het proces van het gebruik van het samenvattingsgeheugen van gesprekken met behulp van de LangChain-module.