Πώς να δημιουργήσετε LLM και LLMChain στο LangChain;

Pos Na Demiourgesete Llm Kai Llmchain Sto Langchain



Το LangChain είναι το πλαίσιο με την εφαρμογή στον τομέα Επεξεργασίας Φυσικής Γλώσσας ή NLP για τη δημιουργία μοντέλων σε γλώσσες που μοιάζουν με τον άνθρωπο. Αυτά τα μοντέλα μπορούν να χρησιμοποιηθούν από ανθρώπους για να λάβουν απαντήσεις από το μοντέλο ή να κάνουν μια συνομιλία όπως οποιοσδήποτε άλλος άνθρωπος. Το LangChain χρησιμοποιείται για τη δημιουργία αλυσίδων αποθηκεύοντας κάθε πρόταση στη συνομιλία και αλληλεπιδρώντας περαιτέρω χρησιμοποιώντας την ως πλαίσιο.

Αυτή η ανάρτηση θα απεικονίσει τη διαδικασία δημιουργίας LLM και LLMChain στο LangChain.







Πώς να δημιουργήσετε LLM και LLMChain στο LangChain;

Για να δημιουργήσετε LLM και LLMChain στο LangChain, απλώς ακολουθήστε τα βήματα που αναφέρονται:



Βήμα 1: Εγκατάσταση μονάδων

Αρχικά, εγκαταστήστε τη λειτουργική μονάδα LangChain για να χρησιμοποιήσετε τις βιβλιοθήκες της για τη δημιουργία LLM και LLMChain:



pip install langchain





Μια άλλη ενότητα που απαιτείται για τη δημιουργία LLM είναι το OpenAI και μπορεί να εγκατασταθεί χρησιμοποιώντας την εντολή pip:

pip εγκατάσταση openai



Βήμα 2: Ρυθμίστε ένα περιβάλλον

Ρυθμίστε ένα περιβάλλον χρησιμοποιώντας το κλειδί OpenAI API από το περιβάλλον του:

εισάγετε μας
εισαγωγή getpassos.environ['OPENAI_API_KEY'] = getpass.getpass('OpenAI API Key:')

Παράδειγμα 1: Δημιουργία LLM με χρήση LangChain

Το πρώτο παράδειγμα είναι να δημιουργήσετε τα μοντέλα μεγάλων γλωσσών χρησιμοποιώντας το LangChain εισάγοντας τις βιβλιοθήκες OpenAI και ChatOpenAI και τη συνάρτηση use llm():

Βήμα 1: Χρήση του μοντέλου συνομιλίας LLM

Εισαγάγετε λειτουργικές μονάδες OpenAI και ChatOpenAI για να δημιουργήσετε ένα απλό LLM χρησιμοποιώντας περιβάλλον OpenAI από το LangChain:

από το langchain.chat_models εισαγωγή ChatOpenAI

από το langchain.llms εισαγωγή OpenAI

llm = OpenAI()
chat_model = ChatOpenAI()
llm.predict('γεια!')

Το μοντέλο απάντησε με την απάντηση 'γεια' όπως φαίνεται στο παρακάτω στιγμιότυπο οθόνης:

Η συνάρτηση predict() από το chat_model χρησιμοποιείται για να λάβουμε την απάντηση ή την απάντηση από το μοντέλο:

chat_model.predict('γεια!')

Η έξοδος δείχνει ότι το μοντέλο είναι στη διάθεση του χρήστη που κάνει ερωτήσεις:

Βήμα 2: Χρήση ερωτήματος κειμένου

Ο χρήστης μπορεί επίσης να λάβει απαντήσεις από το μοντέλο δίνοντας την πλήρη πρόταση στη μεταβλητή κειμένου:

text = 'Ποιο θα ήταν ένα καλό όνομα εταιρείας για μια εταιρεία που φτιάχνει πολύχρωμες κάλτσες;'

llm.predict(κείμενο)

Το μοντέλο έχει εμφανίσει πολλούς χρωματικούς συνδυασμούς για πολύχρωμες κάλτσες:

Λάβετε τη λεπτομερή απάντηση από το μοντέλο χρησιμοποιώντας τη συνάρτηση predict() με τους χρωματικούς συνδυασμούς για τις κάλτσες:

chat_model.predict(κείμενο)

Βήμα 3: Χρήση κειμένου με περιεχόμενο

Ο χρήστης μπορεί να πάρει την απάντηση με μια μικρή εξήγηση σχετικά με την απάντηση:

από την εισαγωγή langchain.schema HumanMessage

text = 'Τι θα ήταν καλός τίτλος για μια εταιρεία που φτιάχνει πολύχρωμα ρούχα'
μηνύματα = [HumanMessage(content=text)]

llm.predict_messages(messages)

Το μοντέλο έχει δημιουργήσει τον τίτλο για την εταιρεία που είναι «Creative Clothing Co»:

Προβλέψτε το μήνυμα για να λάβετε την απάντηση για τον τίτλο της εταιρείας με την εξήγησή του επίσης:

chat_model.predict_messages(messages)

Παράδειγμα 2: Δημιουργία αλυσίδας LLMC χρησιμοποιώντας LangChain

Το δεύτερο παράδειγμα του οδηγού μας δημιουργεί το LLMChain για να πάρει το μοντέλο στη μορφή ανθρώπινης αλληλεπίδρασης για να συνδυάσει όλα τα βήματα από το προηγούμενο παράδειγμα:

από το langchain.chat_models εισαγωγή ChatOpenAI
από την εισαγωγή langchain.prompts.chat ChatPromptTemplate
από την εισαγωγή langchain.prompts.chat ChatPromptTemplate
από εισαγωγή langchain.prompts.chat  SystemMessagePromptTemplatefrom langchain.prompts.chat εισαγωγή HumanMessagePromptTemplate
από το langchain.chains εισαγωγή LLMCchain
από εισαγωγή langchain.schema BaseOutputParserclass CommaSeparatedListOutputParser(BaseOutputParser):

def parse(self, text: str):
επιστροφή text.strip().split(', ')

Δημιουργήστε το πρότυπο για το μοντέλο συνομιλίας δίνοντας μια λεπτομερή εξήγηση της λειτουργίας του και στη συνέχεια δημιουργήστε τη συνάρτηση LLMChain() που περιέχει τις βιβλιοθήκες LLM, αναλυτή εξόδου και chat_prompt:

template = '''Πρέπει να βοηθήσετε στη δημιουργία λιστών διαχωρισμένων με κόμματα
Λάβετε την κατηγορία από τον χρήστη και δημιουργήστε μια λίστα διαχωρισμένη με κόμματα με πέντε αντικείμενα
Το μόνο πράγμα πρέπει να είναι το αντικείμενο από την κατηγορία'''
system_message_prompt = SystemMessagePromptTemplate.from_template(template)
human_template = '{text}'
human_message_prompt = HumanMessagePromptTemplate.from_template(human_template)
#Configure LLMChain με τη δομή του ερωτήματος
chat_prompt = ChatPromptTemplate.from_messages([system_message_prompt, human_message_prompt])
αλυσίδα = LLMCchain(
llm=ChatOpenAI(),
prompt=chat_prompt,
output_parser=CommaSeparatedListOutputParser()
)
chain.run ('colors')

Το μοντέλο έχει δώσει την απάντηση με τη λίστα των χρωμάτων, καθώς η κατηγορία θα πρέπει να περιέχει μόνο 5 αντικείμενα που δίνονται στην προτροπή:

Όλα αυτά αφορούν τη δημιουργία του LLM και του LLMChain στο LangChain.

συμπέρασμα

Για να δημιουργήσετε το LLM και το LLMChain χρησιμοποιώντας το LangChain, απλώς εγκαταστήστε τις μονάδες LangChain και OpenAI για να δημιουργήσετε ένα περιβάλλον χρησιμοποιώντας το κλειδί API του. Μετά από αυτό, δημιουργήστε το μοντέλο LLM χρησιμοποιώντας το chat_model αφού δημιουργήσετε το πρότυπο προτροπής για ένα μόνο ερώτημα σε μια πλήρη συνομιλία. Τα LLMChain χρησιμοποιούνται για τη δημιουργία αλυσίδων όλων των παρατηρήσεων στη συνομιλία και τη χρήση τους ως το πλαίσιο της αλληλεπίδρασης. Αυτή η ανάρτηση απεικονίζει τη διαδικασία δημιουργίας LLM και LLMChain χρησιμοποιώντας το πλαίσιο LangChain.