Πώς να χρησιμοποιήσετε τη μνήμη στο LLMChain μέσω LangChain;

Pos Na Chresimopoiesete Te Mneme Sto Llmchain Meso Langchain



Το LangChain είναι το πλαίσιο που μπορεί να χρησιμοποιηθεί για την εισαγωγή βιβλιοθηκών και εξαρτήσεων για τη δημιουργία μοντέλων μεγάλων γλωσσών ή LLM. Τα μοντέλα γλώσσας χρησιμοποιούν τη μνήμη για την αποθήκευση δεδομένων ή ιστορικού στη βάση δεδομένων ως παρατήρηση για να λάβουν το πλαίσιο της συνομιλίας. Η μνήμη έχει ρυθμιστεί ώστε να αποθηκεύει τα πιο πρόσφατα μηνύματα, ώστε το μοντέλο να μπορεί να κατανοήσει τις διφορούμενες προτροπές που δίνονται από τον χρήστη.

Αυτό το ιστολόγιο εξηγεί τη διαδικασία χρήσης της μνήμης στο LLMChain μέσω του LangChain.







Πώς να χρησιμοποιήσετε τη μνήμη στο LLMChain μέσω LangChain;

Για να προσθέσετε μνήμη και να τη χρησιμοποιήσετε στο LLMChain μέσω του LangChain, η βιβλιοθήκη ConversationBufferMemory μπορεί να χρησιμοποιηθεί εισάγοντάς την από το LangChain.



Για να μάθετε τη διαδικασία χρήσης της μνήμης στο LLMChain μέσω του LangChain, μεταβείτε στον ακόλουθο οδηγό:



Βήμα 1: Εγκατάσταση μονάδων

Αρχικά, ξεκινήστε τη διαδικασία χρήσης της μνήμης εγκαθιστώντας το LangChain χρησιμοποιώντας την εντολή pip:





pip install langchain

Εγκαταστήστε τις λειτουργικές μονάδες OpenAI για να αποκτήσετε τις εξαρτήσεις ή τις βιβλιοθήκες του για τη δημιουργία LLM ή μοντέλων συνομιλίας:



pip εγκατάσταση openai

Ρυθμίστε το περιβάλλον για το OpenAI χρησιμοποιώντας το κλειδί API του, εισάγοντας τις βιβλιοθήκες os και getpass:

εισάγετε μας
εισαγωγή getpass

os.environ['OPENAI_API_KEY'] = getpass.getpass('OpenAI API Key:')

Βήμα 2: Εισαγωγή Βιβλιοθηκών

Αφού ρυθμίσετε το περιβάλλον, απλώς εισαγάγετε τις βιβλιοθήκες όπως το ConversationBufferMemory από το LangChain:

από το langchain.chains εισαγωγή LLMCchain
από το langchain.llms εισαγωγή OpenAI

από το langchain.memory εισαγωγή ConversationBufferMemory

από το langchain.prompts εισαγωγή PromptTemplate

Διαμορφώστε το πρότυπο για την προτροπή χρησιμοποιώντας μεταβλητές όπως 'input' για να λάβετε το ερώτημα από τον χρήστη και 'hist' για την αποθήκευση των δεδομένων στη μνήμη buffer:

template = '''Είστε ένα μοντέλο που συνομιλείτε με έναν άνθρωπο

{ιστορία}
Άνθρωπος: {input}
Chatbot: '''

prompt = PromptTemplate(
input_variables=['hist', 'input'], template=template
)
μνήμη = ConversationBufferMemory(memory_key='hist')

Βήμα 3: Διαμόρφωση LLM

Μόλις κατασκευαστεί το πρότυπο για το ερώτημα, διαμορφώστε τη μέθοδο LLMChain() χρησιμοποιώντας πολλαπλές παραμέτρους:

llm = OpenAI()
llm_chain = LLMChain(
llm=llm,
προτροπή=προτροπή,
πολυσυζητημένο = Αληθινό,
μνήμη=μνήμη,
)

Βήμα 4: Δοκιμή LLMCchain

Μετά από αυτό, δοκιμάστε το LLMChain χρησιμοποιώντας τη μεταβλητή εισόδου για να λάβετε την προτροπή από τον χρήστη σε μορφή κειμένου:

llm_chain.predict(input='Γεια σου φίλε μου')

Χρησιμοποιήστε μια άλλη είσοδο για να λάβετε τα δεδομένα που είναι αποθηκευμένα στη μνήμη για εξαγωγή εξόδου χρησιμοποιώντας το περιβάλλον:

llm_chain.predict(input='Καλά! είμαι καλά - πώς είσαι')

Βήμα 5: Προσθήκη μνήμης σε μοντέλο συνομιλίας

Η μνήμη μπορεί να προστεθεί στο LLMChain που βασίζεται σε μοντέλο συνομιλίας εισάγοντας τις βιβλιοθήκες:

από το langchain.chat_models εισαγωγή ChatOpenAI
από το langchain.schema εισαγωγή SystemMessage
από το langchain.prompts εισαγωγή ChatPromptTemplate, HumanMessagePromptTemplate, MessagesPlaceholder

Διαμορφώστε το πρότυπο προτροπής χρησιμοποιώντας τη ConversationBufferMemory() χρησιμοποιώντας διαφορετικές μεταβλητές για να ορίσετε την είσοδο από τον χρήστη:

prompt = ChatPromptTemplate.from_messages([
SystemMessage(content='Είστε μοντέλο που συνομιλείτε με έναν άνθρωπο'),
MessagesPlaceholder(variable_),
HumanMessagePromptTemplate.from_template('{input}'),
])

μνήμη = ConversationBufferMemory(memory_key='hist', return_messages=True)

Βήμα 6: Διαμόρφωση LLMCchain

Ρυθμίστε τη μέθοδο LLMChain() για να διαμορφώσετε το μοντέλο χρησιμοποιώντας διαφορετικά ορίσματα και παραμέτρους:

llm = ChatOpenAI()

chat_llm_chain = LLMChain(
llm=llm,
προτροπή=προτροπή,
πολυσυζητημένο = Αληθινό,
μνήμη=μνήμη,
)

Βήμα 7: Δοκιμή LLMCchain

Στο τέλος, απλώς δοκιμάστε το LLMChain χρησιμοποιώντας την είσοδο, ώστε το μοντέλο να μπορεί να δημιουργήσει το κείμενο σύμφωνα με την προτροπή:

chat_llm_chain.predict(input='Γεια σου φίλε μου')

Το μοντέλο έχει αποθηκεύσει την προηγούμενη συνομιλία στη μνήμη και την εμφανίζει πριν από την πραγματική έξοδο του ερωτήματος:

llm_chain.predict(input='Καλά! είμαι καλά - πώς είσαι')

Αυτό αφορά τη χρήση της μνήμης στο LLMChain χρησιμοποιώντας το LangChain.

συμπέρασμα

Για να χρησιμοποιήσετε τη μνήμη στο LLMChain μέσω του πλαισίου LangChain, απλώς εγκαταστήστε τις μονάδες για να ρυθμίσετε το περιβάλλον για να λάβετε τις εξαρτήσεις από τις μονάδες. Μετά από αυτό, απλώς εισάγετε τις βιβλιοθήκες από το LangChain για να χρησιμοποιήσετε την προσωρινή μνήμη για την αποθήκευση της προηγούμενης συνομιλίας. Ο χρήστης μπορεί επίσης να προσθέσει μνήμη στο μοντέλο συνομιλίας δημιουργώντας το LLMChain και στη συνέχεια δοκιμάζοντας την αλυσίδα παρέχοντας την είσοδο. Αυτός ο οδηγός έχει επεξεργαστεί τη διαδικασία χρήσης της μνήμης στο LLMChain μέσω του LangChain.