Hoe gebruik ik de conversatiesamenvattingsbuffer in LangChain?

Hoe Gebruik Ik De Conversatiesamenvattingsbuffer In Langchain



LangChain is het raamwerk met alle afhankelijkheden en bibliotheken om modellen te bouwen die datasets in natuurlijke talen kunnen begrijpen. Deze modellen kunnen ook tekst in natuurlijke talen genereren of de meest vergelijkbare gegevens extraheren op basis van de invoer van de gebruiker. Chatbots of LLM's worden gebruikt om gesprekken met mensen op te bouwen en een samenvatting van het gesprek te extraheren met behulp van alle berichten.

Deze gids illustreert het proces van het gebruik van een gespreksoverzichtsbuffer in LangChain.

Hoe gebruik ik een conversatiesamenvattingsbuffer in LangChain?

Een gesprek kan uit meerdere berichten bestaan ​​die lijken op een interactie tussen mens en machine, en de buffer kan de meest recente berichten opslaan. De GesprekSamenvattingBufferMemory bibliotheek wordt gebruikt om beide concepten te combineren, zoals het opslaan van de meest recente berichten en het extraheren van de samenvatting ervan.







Om het proces van het gebruik van de gesprekssamenvattingsbuffer in LangChain te leren, volgt u eenvoudigweg de volgende handleiding:



Stap 1: Modules installeren

Installeer eerst de LangChain-module met behulp van de pip-opdracht om de vereiste bibliotheken te verkrijgen:



pip installeer langchain





Installeer de tiktoken tokenizer die kan worden gebruikt om de tekstdocumenten in kleine stukjes te splitsen:

pip installeer tiktoken



Installeer daarna de OpenAI-modules die kunnen worden gebruikt om de taalmodellen zoals LLM's en ketens te bouwen:

pip installeer openai

Nu, de omgeving opzetten door de API-sleutel uit het OpenAI-account te halen en deze in het model te gebruiken:

importeren Jij
importeren Krijg een pas

Jij . ongeveer [ 'OPENAI_API_KEY' ] = Krijg een pas . Krijg een pas ( 'OpenAI API-sleutel:' )

Stap 2: Gesprekssamenvattingsbuffer gebruiken

Start het proces van het gebruik van de gesprekssamenvattingsbuffer door de bibliotheken te importeren om de LLM te bouwen met behulp van de OpenAI() -methode:

van langketen. geheugen importeren GesprekSamenvattingBufferMemory

van langketen. llms importeren OpenAI

llm = OpenAI ( )

Bouw het geheugen op met behulp van de methode ConversationSummaryBufferMemory() en sla het gesprek vervolgens op in het geheugen:

geheugen = GesprekSamenvattingBufferMemory ( llm = llm , max_token_limit = 10 )

geheugen. bewaar_context ( { 'invoer' : 'Hallo' } , { 'uitvoer' : 'Hoe is het met je' } )

geheugen. bewaar_context ( { 'invoer' : 'Met mij is alles in orde, hoe gaat het met jou' } , { 'uitvoer' : 'niet veel' } )

Voer nu het geheugen uit door de laad_geheugen_variabelen () methode om berichten uit het geheugen te extraheren:

geheugen. laad_geheugen_variabelen ( { } )

Gebruik nu de buffersamenvatting van het gesprek om de buffer te configureren door het aantal berichten dat in de buffer moet worden opgeslagen te beperken. Extraheer daarna de samenvatting van deze berichten die in de buffer zijn opgeslagen en sla het gesprek vervolgens op in het geheugen:

geheugen = GesprekSamenvattingBufferMemory (

llm = llm , max_token_limit = 10 , return_messages = WAAR

)

geheugen. bewaar_context ( { 'invoer' : 'Hallo' } , { 'uitvoer' : 'Hoe is het met je' } )

geheugen. bewaar_context ( { 'invoer' : 'Met mij is alles in orde, hoe gaat het met jou' } , { 'uitvoer' : 'niet veel' } )

Haal de samenvatting op van de eerdere berichten die in het buffergeheugen zijn opgeslagen met behulp van de volgende code:

berichten = geheugen. chat_geheugen . berichten

vorige_samenvatting = ''

geheugen. voorspellen_nieuwe_samenvatting ( berichten , vorige_samenvatting )

Stap 3: Gesprekssamenvattingsbuffer in een keten gebruiken

Bouw de ketens met behulp van de Conversatieketen() methode die de waarde bevat voor het buffergeheugen om het bericht daarin op te slaan:

van langketen. kettingen importeren ConversatieKeten

gesprek_met_samenvatting = ConversatieKeten (
llm = llm ,
geheugen = GesprekSamenvattingBufferMemory ( llm = OpenAI ( ) , max_token_limit = 40 ) ,
uitgebreid = WAAR ,
)
gesprek_met_samenvatting. voorspellen ( invoer = 'Hoi, hoe is het?' )

Geef de invoer op in de vorm van tekst met behulp van de voorspellen() methode om de samenvatting van het gesprek te krijgen:

gesprek_met_samenvatting. voorspellen ( invoer = 'Gewoon bezig met het NLP-project' )

Gebruik de uitvoer van het model en voeg meer gegevens toe met behulp van de berichten in het buffergeheugen en geef de samenvatting ervan weer:

gesprek_met_samenvatting. voorspellen ( invoer = 'Jawel! Ik ben bezig met het ontwerpen van LLM's' )

De samenvatting is dat de output gemakkelijk te begrijpen en mensvriendelijker zal zijn en meer geschikt is voor chatbots:

gesprek_met_samenvatting. voorspellen (

invoer = 'Ik wil LangChain gebruiken! Heb je ervan gehoord'

)

Dat gaat allemaal over het gebruik van de gesprekssamenvattingsbuffer in LangChain.

Conclusie

Om het gesprekssamenvattingsbuffergeheugen in LangChain te gebruiken, installeert u eenvoudig de modules of frameworks om de vereiste bibliotheken te verkrijgen. Zodra de bibliotheken zijn geïmporteerd, bouwt u de LLM's of chatbots om de functie ConverstaionSummaryBufferMemory() te gebruiken om de samenvatting van het gesprek te verkrijgen. Het buffergeheugen wordt gebruikt om het aantal berichten dat in het geheugen is opgeslagen te beperken en te gebruiken voor het extraheren van de samenvatting. In dit bericht wordt dieper ingegaan op het proces van het gebruik van het gesprekssamenvattingsbuffergeheugen in LangChain.