Αυτός ο οδηγός θα απεικονίσει τη διαδικασία χρήσης ενός buffer διακριτικών συνομιλίας στο LangChain.
Πώς να χρησιμοποιήσετε μια προσωρινή μνήμη διακριτικών συνομιλίας στο LangChain;
ο ConversationTokenBufferMemory Η βιβλιοθήκη μπορεί να εισαχθεί από το πλαίσιο LangChain για να αποθηκεύσει τα πιο πρόσφατα μηνύματα στην προσωρινή μνήμη. Τα διακριτικά μπορούν να ρυθμιστούν ώστε να περιορίζουν τον αριθμό των μηνυμάτων που είναι αποθηκευμένα στην προσωρινή μνήμη και τα προηγούμενα μηνύματα θα ξεπλένονται αυτόματα.
Για να μάθετε τη διαδικασία χρήσης του buffer διακριτικού συνομιλίας στο LangChain, χρησιμοποιήστε τον ακόλουθο οδηγό:
Βήμα 1: Εγκατάσταση μονάδων
Αρχικά, εγκαταστήστε το πλαίσιο LangChain που περιέχει όλες τις απαιτούμενες ενότητες χρησιμοποιώντας την εντολή pip:
pip install langchain
Τώρα, εγκαταστήστε τη λειτουργική μονάδα OpenAI για να δημιουργήσετε τα LLM και τις αλυσίδες χρησιμοποιώντας τη μέθοδο OpenAI():
pip εγκατάσταση openai
Μετά την εγκατάσταση των μονάδων, απλώς χρησιμοποιήστε το κλειδί API του OpenAI για να δημιουργήσει το περιβάλλον χρησιμοποιώντας τις βιβλιοθήκες os και getpass:
εισαγωγή εσείςεισαγωγή getpass
εσείς . κατά προσέγγιση [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'Κλειδί OpenAI API:' )
Βήμα 2: Χρήση μνήμης προσωρινής αποθήκευσης διακριτικών συνομιλίας
Δημιουργήστε τα LLM χρησιμοποιώντας τη μέθοδο OpenAI() μετά την εισαγωγή του ConversationTokenBufferMemory βιβλιοθήκη από το πλαίσιο LangChain:
από langchain. μνήμη εισαγωγή ConversationTokenBufferMemoryαπό langchain. llms εισαγωγή OpenAI
llm = OpenAI ( )
Διαμορφώστε τη μνήμη για να ορίσετε το διακριτικό, ξεπλένει τα παλιά μηνύματα και τα αποθηκεύει στην προσωρινή μνήμη. Μετά από αυτό, αποθηκεύστε τα μηνύματα από τη συνομιλία και λάβετε τα πιο πρόσφατα για να τα χρησιμοποιήσετε ως περιβάλλον:
μνήμη = ConversationTokenBufferMemory ( llm = llm , max_token_limit = 10 )μνήμη. save_context ( { 'εισαγωγή' : 'Γειά σου' } , { 'παραγωγή' : 'Πώς είσαι' } )
μνήμη. save_context ( { 'εισαγωγή' : 'Είμαι καλά εσύ' } , { 'παραγωγή' : 'όχι πολύ' } )
Εκτελέστε τη μνήμη για να λάβετε τα δεδομένα που είναι αποθηκευμένα στην προσωρινή μνήμη χρησιμοποιώντας τη μέθοδο load_memory_variables():
μνήμη. load_memory_variables ( { } )
Βήμα 3: Χρήση της μνήμης προσωρινής αποθήκευσης διακριτικών συνομιλίας σε μια αλυσίδα
Κατασκευάστε τις αλυσίδες διαμορφώνοντας το ConversationChain() μέθοδος με πολλαπλά ορίσματα για τη χρήση της μνήμης προσωρινής αποθήκευσης διακριτικών συνομιλίας:
από langchain. αλυσίδες εισαγωγή Αλυσίδα συνομιλίαςσυνομιλία_με_σύνοψη = Αλυσίδα συνομιλίας (
llm = llm ,
μνήμη = ConversationTokenBufferMemory ( llm = OpenAI ( ) , max_token_limit = 60 ) ,
πολύλογος = Αληθής ,
)
συνομιλία_με_σύνοψη. προλέγω ( εισαγωγή = 'Γειά τι κάνεις?' )
Τώρα, ξεκινήστε τη συζήτηση κάνοντας ερωτήσεις χρησιμοποιώντας τις προτροπές γραμμένες σε φυσική γλώσσα:
συνομιλία_με_σύνοψη. προλέγω ( εισαγωγή = 'Απλώς δουλεύω στο έργο NLP' )
Λάβετε την έξοδο από τα δεδομένα που είναι αποθηκευμένα στην προσωρινή μνήμη χρησιμοποιώντας τον αριθμό των διακριτικών:
συνομιλία_με_σύνοψη. προλέγω ( εισαγωγή = 'Απλώς εργάζομαι στο σχεδιασμό LLM' )
Το buffer συνεχίζει να ενημερώνεται με κάθε νέα είσοδο καθώς τα προηγούμενα μηνύματα ξεπλένονται τακτικά:
συνομιλία_με_σύνοψη. προλέγω (εισαγωγή = 'LLM χρησιμοποιώντας LangChain! Έχετε ακούσει για αυτό'
)
Αυτό αφορά τη χρήση του buffer διακριτικού συνομιλίας στο LangChain.
συμπέρασμα
Για να χρησιμοποιήσετε το buffer διακριτικών συνομιλίας στο LangChain, απλώς εγκαταστήστε τις λειτουργικές μονάδες για να ρυθμίσετε το περιβάλλον χρησιμοποιώντας το κλειδί API από το λογαριασμό OpenAI. Μετά από αυτό, εισαγάγετε τη βιβλιοθήκη ConversationTokenBufferMemory χρησιμοποιώντας τη λειτουργική μονάδα LangChain για να αποθηκεύσετε τη συνομιλία στο buffer. Η προσωρινή μνήμη μπορεί να χρησιμοποιηθεί σε μια αλυσίδα για να ξεπλένει τα παλαιότερα μηνύματα με κάθε νέο μήνυμα στη συνομιλία. Αυτή η ανάρτηση έχει επεξεργαστεί τη χρήση της μνήμης προσωρινής αποθήκευσης διακριτικών συνομιλίας στο LangChain.