Πώς να χρησιμοποιήσετε τον αναλυτή δομημένης εξόδου στο LangChain;

Pos Na Chresimopoiesete Ton Analyte Domemenes Exodou Sto Langchain



Το LangChain είναι το πλαίσιο για τη δημιουργία μοντέλων συνομιλίας και LLM για τη λήψη πληροφοριών από το σύνολο δεδομένων ή το διαδίκτυο χρησιμοποιώντας το περιβάλλον OpenAI. Ο αναλυτής δομημένης εξόδου χρησιμοποιείται για τη λήψη πολλαπλών πεδίων ή απαντήσεων όπως η πραγματική απάντηση και ορισμένες επιπλέον σχετικές πληροφορίες. Οι βιβλιοθήκες ανάλυσης εξόδου μπορούν να χρησιμοποιηθούν με το LangChain για εξαγωγή δεδομένων χρησιμοποιώντας τα μοντέλα που έχουν δημιουργηθεί ως LLM ή μοντέλα συνομιλίας.

Αυτή η ανάρτηση παρουσίασε τη διαδικασία χρήσης του αναλυτή δομημένης εξόδου στο LangChain.







Πώς να χρησιμοποιήσετε τον αναλυτή δομημένης εξόδου στο LangChain;

Για να χρησιμοποιήσετε τον αναλυτή δομημένης εξόδου στο LangChain, απλώς ακολουθήστε αυτά τα βήματα:



Βήμα 1: Εγκατάσταση Προϋποθέσεων



Ξεκινήστε τη διαδικασία εγκαθιστώντας το πλαίσιο LangChain εάν δεν είναι ήδη εγκατεστημένο στο περιβάλλον Python σας:





κουκούτσι εγκαθιστώ langchain



Εγκαταστήστε το πλαίσιο OpenAI για πρόσβαση στις μεθόδους του για τη δημιουργία ενός αναλυτή στο LangChain:

κουκούτσι εγκαθιστώ openai

Μετά από αυτό, απλώς συνδεθείτε στο περιβάλλον OpenAI χρησιμοποιώντας το κλειδί API του για να αποκτήσετε πρόσβαση στο περιβάλλον του χρησιμοποιώντας το ' εσείς ' βιβλιοθήκη και παρέχετε το κλειδί API χρησιμοποιώντας το ' getpass ' βιβλιοθήκη:

εισάγετε μας
εισαγωγή getpass

os.περιβάλλον [ 'OPENAI_API_KEY' ] = getpass.getpass ( 'Κλειδί API OpenAI:' )

Βήμα 2: Δημιουργία σχήματος για την έξοδο/απόκριση

Αφού αποκτήσετε τη σύνδεση στο OpenAI, απλώς εισαγάγετε τις βιβλιοθήκες για να δημιουργήσετε το σχήμα για τη δημιουργία της εξόδου:

από langchain.output_parsers εισαγωγή StructuredOutputParser, ResponseSchema
από το langchain.prompts εισαγωγή PromptTemplate, ChatPromptTemplate, HumanMessagePromptTemplate
από το langchain.llms εισαγωγή OpenAI
από το langchain.chat_models εισαγωγή ChatOpenAI

Καθορίστε το σχήμα για την απόκριση σύμφωνα με την απαίτηση, ώστε το μοντέλο να δημιουργήσει την απόκριση ανάλογα:

απόκριση_σχήματα = [
ResponseSchema ( όνομα = 'απάντηση' , περιγραφή = 'απάντηση στο ερώτημα' ) ,
ResponseSchema ( όνομα = 'πηγή' , περιγραφή = 'πηγή ιστότοπου που χρησιμοποιείται για να λάβουμε την απάντηση' )
]
output_parser = StructuredOutputParser.from_response_schemas ( απόκριση_σχημάτων )

Βήμα 3: Μορφοποίηση προτύπου

Αφού διαμορφώσετε το σχήμα για την έξοδο, απλώς ορίστε το πρότυπο για την είσοδο στη φυσική γλώσσα, έτσι ώστε το μοντέλο να μπορεί να κατανοήσει τις ερωτήσεις πριν λάβει την απάντηση για αυτό:

format_instructions = output_parser.get_format_instructions ( )
prompt = PromptTemplate (
πρότυπο = 'Απαντήστε στην ερώτηση του χρήστη. \n {πρότυπο} \n {ερώτηση}' ,
input_variables = [ 'ερώτηση' ] ,
partal_variables = { 'πρότυπο' : format_instructions }
)

Μέθοδος 1: Χρήση του μοντέλου γλώσσας

Αφού διαμορφώσετε τα πρότυπα μορφής για ερωτήσεις και απαντήσεις, απλώς δημιουργήστε το μοντέλο χρησιμοποιώντας τη συνάρτηση OpenAI():

μοντέλο = OpenAI ( θερμοκρασία = 0 )

Ορίστε την προτροπή στο ' ερώτηση ” μεταβλητή και περάστε την στο format_prompt() λειτουργήσει ως είσοδος και στη συνέχεια αποθηκεύστε την απάντηση στο ' παραγωγή ' μεταβλητή:

_input = prompt.format_prompt ( ερώτηση = 'Πόσες ήπειροι υπάρχουν στον κόσμο' )
έξοδος = μοντέλο ( _input.to_string ( ) )

Καλέστε το αναλύω λέξη() συνάρτηση με όρισμα τη μεταβλητή εξόδου για να πάρει την απάντηση από το μοντέλο:

output_parser.parse ( παραγωγή )

Ο αναλυτής εξόδου λαμβάνει την απάντηση για το ερώτημα και εμφανίζει μια λεπτομερή απάντηση με τον σύνδεσμο προς τη σελίδα του ιστότοπου που χρησιμοποιείται για τη λήψη της απάντησης:

Μέθοδος 2: Χρήση του μοντέλου συνομιλίας

Για να λάβετε αποτελέσματα από τον αναλυτή εξόδου στο LangChain, χρησιμοποιήστε το chat_model μεταβλητή παρακάτω:

chat_model = ChatOpenAI ( θερμοκρασία = 0 )

Για να κατανοήσετε το μήνυμα προτροπής, διαμορφώστε το πρότυπο προτροπής για το μοντέλο συνομιλίας. Στη συνέχεια, δημιουργήστε την απόκριση σύμφωνα με την είσοδο:

prompt = ChatPromptTemplate (
μηνύματα = [
HumanMessagePromptTemplate.from_template ( 'Απαντήστε στην ερώτηση του χρήστη. \n {format_instructions} \n {ερώτηση}' )
] ,
input_variables = [ 'ερώτηση' ] ,
partal_variables = { 'format_instructions' : format_instructions }
)

Μετά από αυτό, απλώς δώστε την είσοδο στο ' ερώτηση ' μεταβλητή και μετά περάστε την στο chat_model() λειτουργία για να λάβετε την έξοδο από το μοντέλο:

_input = prompt.format_prompt ( ερώτηση = 'Οι ΗΠΑ αντιπροσωπεύουν' )
έξοδος = chat_model ( _input.to_messages ( ) )

Για να λάβετε την απάντηση από το μοντέλο συνομιλίας, χρησιμοποιήστε το output_parser που αποθηκεύει το αποτέλεσμα από το ' παραγωγή ' μεταβλητή:

output_parser.parse ( έξοδος.περιεχόμενο )

Το μοντέλο συνομιλίας εμφάνισε την απάντηση για το ερώτημα και το όνομα του ιστότοπου που χρησιμοποιείται για τη λήψη της απάντησης από το διαδίκτυο:

Αυτό αφορά τη χρήση ενός αναλυτή δομημένης εξόδου στο LangChain.

συμπέρασμα

Για να χρησιμοποιήσετε τον αναλυτή δομημένης εξόδου στο LangChain, απλώς εγκαταστήστε τις μονάδες LangChain και OpenAI για να ξεκινήσετε τη διαδικασία. Μετά από αυτό, συνδεθείτε στο περιβάλλον OpenAI χρησιμοποιώντας το κλειδί API και, στη συνέχεια, διαμορφώστε τα πρότυπα προτροπής και απόκρισης για το μοντέλο. Ο αναλυτής εξόδου μπορεί να χρησιμοποιηθεί είτε με μοντέλο γλώσσας είτε με μοντέλο συνομιλίας. Αυτός ο οδηγός εξηγεί τη χρήση του αναλυτή εξόδου και με τις δύο μεθόδους.