Joachim Pimiskern
unread,Aug 13, 2023, 5:01:21 PMAug 13Sign in to reply to author
Sign in to forward
You do not have permission to delete messages in this group
Sign in to report message as abuse
Either email addresses are anonymous for this group or you need the view member email addresses permission to view the original message
to
Von ChatGPT bekam ich den Tip, Hugging Face zu
probieren. Man verwende diesen Python-Beispielcode,
um von einem Transformer Fragen beantworten zu lassen.
from transformers import pipeline
# Load a pre-trained question-answering model
qa_model = pipeline("question-answering")
# Your notes or sentences
context = """
I have a meeting with John at 3 PM today. The meeting will take place in
the conference room.
Ich esse gerne Kuchen.
"""
# The question you want to ask based on the notes
#question = "Where is the meeting today?"
question = "Was esse ich gerne?"
# Use the model to answer the question
result = qa_model({"question": question, "context": context})
# Extract the answer from the result
answer = result["answer"]
print("Answer:", answer)
Bedauerlicherweise ist das von
einem selbst beigesteuerte Wissen nur "Kontext".
Man kann sich diesen Kontext so vorstellen
wie das menschliche Arbeitsgedächtnis,
dessen Spanne recht begrenzt ist. Will man
Fragen zu eigenen Dokumenten beantworten
lassen, muß man mehr Maschinerie verwenden,
z.B. eigene Dokumente (Geschäftsunterlagen etc.)
in die Cloud auslagern und Neuronale Netze
trainieren lassen. Das macht keine Firma gerne
mit Geschäftsgeheimnissen.
Grüße,
Joachim