Πώς να χρησιμοποιήσετε μια προσωρινή μνήμη διακριτικών συνομιλίας στο LangChain;

Pos Na Chresimopoiesete Mia Prosorine Mneme Diakritikon Synomilias Sto Langchain



Το LangChain δίνει τη δυνατότητα στους προγραμματιστές να δημιουργήσουν μοντέλα χρησιμοποιώντας μηχανική μάθηση ή βαθιά εκμάθηση που μπορούν να εκπαιδεύσουν μοντέλα χρησιμοποιώντας τα σύνολα δεδομένων. Αυτά τα μοντέλα μπορούν να λάβουν διαφορετικά μοτίβα από τα δεδομένα ή να κατανοήσουν τη μορφή του συνόλου δεδομένων και τη γλώσσα του για την εξαγωγή πληροφοριών. Τα μεγάλα μοντέλα γλώσσας ή τα LLM μπορούν να διαμορφωθούν ή να σχεδιαστούν χρησιμοποιώντας τα πλαίσια LangChain που μπορούν να κατανοήσουν και να δημιουργήσουν κείμενο σε φυσικές γλώσσες.

Αυτός ο οδηγός θα απεικονίσει τη διαδικασία χρήσης ενός buffer διακριτικών συνομιλίας στο LangChain.

Πώς να χρησιμοποιήσετε μια προσωρινή μνήμη διακριτικών συνομιλίας στο LangChain;

ο ConversationTokenBufferMemory Η βιβλιοθήκη μπορεί να εισαχθεί από το πλαίσιο LangChain για να αποθηκεύσει τα πιο πρόσφατα μηνύματα στην προσωρινή μνήμη. Τα διακριτικά μπορούν να ρυθμιστούν ώστε να περιορίζουν τον αριθμό των μηνυμάτων που είναι αποθηκευμένα στην προσωρινή μνήμη και τα προηγούμενα μηνύματα θα ξεπλένονται αυτόματα.







Για να μάθετε τη διαδικασία χρήσης του buffer διακριτικού συνομιλίας στο LangChain, χρησιμοποιήστε τον ακόλουθο οδηγό:



Βήμα 1: Εγκατάσταση μονάδων

Αρχικά, εγκαταστήστε το πλαίσιο LangChain που περιέχει όλες τις απαιτούμενες ενότητες χρησιμοποιώντας την εντολή pip:



pip install langchain





Τώρα, εγκαταστήστε τη λειτουργική μονάδα OpenAI για να δημιουργήσετε τα LLM και τις αλυσίδες χρησιμοποιώντας τη μέθοδο OpenAI():

pip εγκατάσταση openai



Μετά την εγκατάσταση των μονάδων, απλώς χρησιμοποιήστε το κλειδί API του OpenAI για να δημιουργήσει το περιβάλλον χρησιμοποιώντας τις βιβλιοθήκες os και getpass:

εισαγωγή εσείς

εισαγωγή getpass

εσείς . κατά προσέγγιση [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'Κλειδί OpenAI API:' )

Βήμα 2: Χρήση μνήμης προσωρινής αποθήκευσης διακριτικών συνομιλίας

Δημιουργήστε τα LLM χρησιμοποιώντας τη μέθοδο OpenAI() μετά την εισαγωγή του ConversationTokenBufferMemory βιβλιοθήκη από το πλαίσιο LangChain:

από langchain. μνήμη εισαγωγή ConversationTokenBufferMemory

από langchain. llms εισαγωγή OpenAI

llm = OpenAI ( )

Διαμορφώστε τη μνήμη για να ορίσετε το διακριτικό, ξεπλένει τα παλιά μηνύματα και τα αποθηκεύει στην προσωρινή μνήμη. Μετά από αυτό, αποθηκεύστε τα μηνύματα από τη συνομιλία και λάβετε τα πιο πρόσφατα για να τα χρησιμοποιήσετε ως περιβάλλον:

μνήμη = ConversationTokenBufferMemory ( llm = llm , max_token_limit = 10 )

μνήμη. save_context ( { 'εισαγωγή' : 'Γειά σου' } , { 'παραγωγή' : 'Πώς είσαι' } )

μνήμη. save_context ( { 'εισαγωγή' : 'Είμαι καλά εσύ' } , { 'παραγωγή' : 'όχι πολύ' } )

Εκτελέστε τη μνήμη για να λάβετε τα δεδομένα που είναι αποθηκευμένα στην προσωρινή μνήμη χρησιμοποιώντας τη μέθοδο load_memory_variables():

μνήμη. load_memory_variables ( { } )

Βήμα 3: Χρήση της μνήμης προσωρινής αποθήκευσης διακριτικών συνομιλίας σε μια αλυσίδα

Κατασκευάστε τις αλυσίδες διαμορφώνοντας το ConversationChain() μέθοδος με πολλαπλά ορίσματα για τη χρήση της μνήμης προσωρινής αποθήκευσης διακριτικών συνομιλίας:

από langchain. αλυσίδες εισαγωγή Αλυσίδα συνομιλίας

συνομιλία_με_σύνοψη = Αλυσίδα συνομιλίας (
llm = llm ,
μνήμη = ConversationTokenBufferMemory ( llm = OpenAI ( ) , max_token_limit = 60 ) ,
πολύλογος = Αληθής ,
)
συνομιλία_με_σύνοψη. προλέγω ( εισαγωγή = 'Γειά τι κάνεις?' )

Τώρα, ξεκινήστε τη συζήτηση κάνοντας ερωτήσεις χρησιμοποιώντας τις προτροπές γραμμένες σε φυσική γλώσσα:

συνομιλία_με_σύνοψη. προλέγω ( εισαγωγή = 'Απλώς δουλεύω στο έργο NLP' )

Λάβετε την έξοδο από τα δεδομένα που είναι αποθηκευμένα στην προσωρινή μνήμη χρησιμοποιώντας τον αριθμό των διακριτικών:

συνομιλία_με_σύνοψη. προλέγω ( εισαγωγή = 'Απλώς εργάζομαι στο σχεδιασμό LLM' )

Το buffer συνεχίζει να ενημερώνεται με κάθε νέα είσοδο καθώς τα προηγούμενα μηνύματα ξεπλένονται τακτικά:

συνομιλία_με_σύνοψη. προλέγω (

εισαγωγή = 'LLM χρησιμοποιώντας LangChain! Έχετε ακούσει για αυτό'

)

Αυτό αφορά τη χρήση του buffer διακριτικού συνομιλίας στο LangChain.

συμπέρασμα

Για να χρησιμοποιήσετε το buffer διακριτικών συνομιλίας στο LangChain, απλώς εγκαταστήστε τις λειτουργικές μονάδες για να ρυθμίσετε το περιβάλλον χρησιμοποιώντας το κλειδί API από το λογαριασμό OpenAI. Μετά από αυτό, εισαγάγετε τη βιβλιοθήκη ConversationTokenBufferMemory χρησιμοποιώντας τη λειτουργική μονάδα LangChain για να αποθηκεύσετε τη συνομιλία στο buffer. Η προσωρινή μνήμη μπορεί να χρησιμοποιηθεί σε μια αλυσίδα για να ξεπλένει τα παλαιότερα μηνύματα με κάθε νέο μήνυμα στη συνομιλία. Αυτή η ανάρτηση έχει επεξεργαστεί τη χρήση της μνήμης προσωρινής αποθήκευσης διακριτικών συνομιλίας στο LangChain.