Το LangChain είναι το πλαίσιο με την εφαρμογή στον τομέα Επεξεργασίας Φυσικής Γλώσσας ή NLP για τη δημιουργία μοντέλων σε γλώσσες που μοιάζουν με τον άνθρωπο. Αυτά τα μοντέλα μπορούν να χρησιμοποιηθούν από ανθρώπους για να λάβουν απαντήσεις από το μοντέλο ή να κάνουν μια συνομιλία όπως οποιοσδήποτε άλλος άνθρωπος. Το LangChain χρησιμοποιείται για τη δημιουργία αλυσίδων αποθηκεύοντας κάθε πρόταση στη συνομιλία και αλληλεπιδρώντας περαιτέρω χρησιμοποιώντας την ως πλαίσιο.
Αυτή η ανάρτηση θα απεικονίσει τη διαδικασία δημιουργίας LLM και LLMChain στο LangChain.
Πώς να δημιουργήσετε LLM και LLMChain στο LangChain;
Για να δημιουργήσετε LLM και LLMChain στο LangChain, απλώς ακολουθήστε τα βήματα που αναφέρονται:
Βήμα 1: Εγκατάσταση μονάδων
Αρχικά, εγκαταστήστε τη λειτουργική μονάδα LangChain για να χρησιμοποιήσετε τις βιβλιοθήκες της για τη δημιουργία LLM και LLMChain:
pip install langchain
Μια άλλη ενότητα που απαιτείται για τη δημιουργία LLM είναι το OpenAI και μπορεί να εγκατασταθεί χρησιμοποιώντας την εντολή pip:
pip εγκατάσταση openai
Βήμα 2: Ρυθμίστε ένα περιβάλλον
Ρυθμίστε ένα περιβάλλον χρησιμοποιώντας το κλειδί OpenAI API από το περιβάλλον του:
εισάγετε μαςεισαγωγή getpassos.environ['OPENAI_API_KEY'] = getpass.getpass('OpenAI API Key:')
Παράδειγμα 1: Δημιουργία LLM με χρήση LangChain
Το πρώτο παράδειγμα είναι να δημιουργήσετε τα μοντέλα μεγάλων γλωσσών χρησιμοποιώντας το LangChain εισάγοντας τις βιβλιοθήκες OpenAI και ChatOpenAI και τη συνάρτηση use llm():
Βήμα 1: Χρήση του μοντέλου συνομιλίας LLM
Εισαγάγετε λειτουργικές μονάδες OpenAI και ChatOpenAI για να δημιουργήσετε ένα απλό LLM χρησιμοποιώντας περιβάλλον OpenAI από το LangChain:
από το langchain.chat_models εισαγωγή ChatOpenAIαπό το langchain.llms εισαγωγή OpenAI
llm = OpenAI()
chat_model = ChatOpenAI()
llm.predict('γεια!')
Το μοντέλο απάντησε με την απάντηση 'γεια' όπως φαίνεται στο παρακάτω στιγμιότυπο οθόνης:
Η συνάρτηση predict() από το chat_model χρησιμοποιείται για να λάβουμε την απάντηση ή την απάντηση από το μοντέλο:
chat_model.predict('γεια!')Η έξοδος δείχνει ότι το μοντέλο είναι στη διάθεση του χρήστη που κάνει ερωτήσεις:
Βήμα 2: Χρήση ερωτήματος κειμένου
Ο χρήστης μπορεί επίσης να λάβει απαντήσεις από το μοντέλο δίνοντας την πλήρη πρόταση στη μεταβλητή κειμένου:
text = 'Ποιο θα ήταν ένα καλό όνομα εταιρείας για μια εταιρεία που φτιάχνει πολύχρωμες κάλτσες;'llm.predict(κείμενο)
Το μοντέλο έχει εμφανίσει πολλούς χρωματικούς συνδυασμούς για πολύχρωμες κάλτσες:
Λάβετε τη λεπτομερή απάντηση από το μοντέλο χρησιμοποιώντας τη συνάρτηση predict() με τους χρωματικούς συνδυασμούς για τις κάλτσες:
chat_model.predict(κείμενο)
Βήμα 3: Χρήση κειμένου με περιεχόμενο
Ο χρήστης μπορεί να πάρει την απάντηση με μια μικρή εξήγηση σχετικά με την απάντηση:
από την εισαγωγή langchain.schema HumanMessagetext = 'Τι θα ήταν καλός τίτλος για μια εταιρεία που φτιάχνει πολύχρωμα ρούχα'
μηνύματα = [HumanMessage(content=text)]
llm.predict_messages(messages)
Το μοντέλο έχει δημιουργήσει τον τίτλο για την εταιρεία που είναι «Creative Clothing Co»:
Προβλέψτε το μήνυμα για να λάβετε την απάντηση για τον τίτλο της εταιρείας με την εξήγησή του επίσης:
chat_model.predict_messages(messages)
Παράδειγμα 2: Δημιουργία αλυσίδας LLMC χρησιμοποιώντας LangChain
Το δεύτερο παράδειγμα του οδηγού μας δημιουργεί το LLMChain για να πάρει το μοντέλο στη μορφή ανθρώπινης αλληλεπίδρασης για να συνδυάσει όλα τα βήματα από το προηγούμενο παράδειγμα:
από το langchain.chat_models εισαγωγή ChatOpenAIαπό την εισαγωγή langchain.prompts.chat ChatPromptTemplate
από την εισαγωγή langchain.prompts.chat ChatPromptTemplate
από εισαγωγή langchain.prompts.chat SystemMessagePromptTemplatefrom langchain.prompts.chat εισαγωγή HumanMessagePromptTemplate
από το langchain.chains εισαγωγή LLMCchain
από εισαγωγή langchain.schema BaseOutputParserclass CommaSeparatedListOutputParser(BaseOutputParser):
def parse(self, text: str):
επιστροφή text.strip().split(', ')
Δημιουργήστε το πρότυπο για το μοντέλο συνομιλίας δίνοντας μια λεπτομερή εξήγηση της λειτουργίας του και στη συνέχεια δημιουργήστε τη συνάρτηση LLMChain() που περιέχει τις βιβλιοθήκες LLM, αναλυτή εξόδου και chat_prompt:
template = '''Πρέπει να βοηθήσετε στη δημιουργία λιστών διαχωρισμένων με κόμματαΛάβετε την κατηγορία από τον χρήστη και δημιουργήστε μια λίστα διαχωρισμένη με κόμματα με πέντε αντικείμενα
Το μόνο πράγμα πρέπει να είναι το αντικείμενο από την κατηγορία'''
system_message_prompt = SystemMessagePromptTemplate.from_template(template)
human_template = '{text}'
human_message_prompt = HumanMessagePromptTemplate.from_template(human_template)
#Configure LLMChain με τη δομή του ερωτήματος
chat_prompt = ChatPromptTemplate.from_messages([system_message_prompt, human_message_prompt])
αλυσίδα = LLMCchain(
llm=ChatOpenAI(),
prompt=chat_prompt,
output_parser=CommaSeparatedListOutputParser()
)
chain.run ('colors')
Το μοντέλο έχει δώσει την απάντηση με τη λίστα των χρωμάτων, καθώς η κατηγορία θα πρέπει να περιέχει μόνο 5 αντικείμενα που δίνονται στην προτροπή:
Όλα αυτά αφορούν τη δημιουργία του LLM και του LLMChain στο LangChain.
συμπέρασμα
Για να δημιουργήσετε το LLM και το LLMChain χρησιμοποιώντας το LangChain, απλώς εγκαταστήστε τις μονάδες LangChain και OpenAI για να δημιουργήσετε ένα περιβάλλον χρησιμοποιώντας το κλειδί API του. Μετά από αυτό, δημιουργήστε το μοντέλο LLM χρησιμοποιώντας το chat_model αφού δημιουργήσετε το πρότυπο προτροπής για ένα μόνο ερώτημα σε μια πλήρη συνομιλία. Τα LLMChain χρησιμοποιούνται για τη δημιουργία αλυσίδων όλων των παρατηρήσεων στη συνομιλία και τη χρήση τους ως το πλαίσιο της αλληλεπίδρασης. Αυτή η ανάρτηση απεικονίζει τη διαδικασία δημιουργίας LLM και LLMChain χρησιμοποιώντας το πλαίσιο LangChain.