Zum Inhalt springen

Diskussion:Prompt Engineering

Seiteninhalte werden in anderen Sprachen nicht unterstützt.
Abschnitt hinzufügen
aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 7 Monaten von Steue in Abschnitt "implizit vorgegeben"?

Die Quelle bezieht sich nur auf eines von zweien.

[Quelltext bearbeiten]

Im 3. Absatz steht:

Die breite Zugänglichkeit dieser Tools wurde durch die Veröffentlichung mehrerer Open-Source-Notebooks und von der Community geführter Projekte zur Bildsynthese vorangetrieben.[2]

Dabei entsteht der Eindruck, dass sich diese angegebene Quelle auf beides:

  • Open-Source-Notebooks und
  • von der Community geführter Projekte zur Bildsynthese

bezieht.

In dieser angegebenen Quelle ("Design Guidelines for Prompt Engineering Text-to-Image Generative Models.") konnte ich aber keinen Hinweis auf Open-Source-Notebooks finden.

Wie können wir das ändern, soll heißen: darstellen, dass sich die Quelle nur auf die "Projekte zur Bildsynthese" bezieht?

Ping willkommen, Steue (Diskussion) 04:25, 2. Apr. 2023 (CEST)Beantworten

Durch den folgenden Diskussions-Abschnitt ist dieses Miss-Verständnis, wohl, geklärt.
Ping willkommen, Steue (Diskussion) 05:33, 2. Apr. 2023 (CEST)Beantworten

"Open-Source-Notebooks" Bedeutung?

[Quelltext bearbeiten]

Meint das Hardware oder Documente?

Ich vermute, das ist ein "einfach so" (ohne an die Miss-Versteh-barkeit zu denken) in's Deutsche übernommener Ausdruck (Denglisch) und meint:

Projekt-Notizen, die von Forschern (meistens) in einem Buch aus Papier eingetragen werden. Solche sind in der englischen WP in den Artikeln:

beschrieben.

Ping willkommen, Steue (Diskussion) 05:09, 2. Apr. 2023 (CEST)Beantworten

Ich habe im Artikel das "Open-Source-Notebook" ersetzt durch "Open-Source-Projekt-Notizen".
Ping willkommen, Steue (Diskussion) 05:30, 2. Apr. 2023 (CEST)Beantworten

Übersetzung des englischen "prompt"

[Quelltext bearbeiten]

Gemäß der Begriffs-Klärungs-Seite https://en.wikipedia.org/wiki/Prompt / Listen-Punkt:

  • Prompt (natural language), instructions issued to a computer system (such as a text-to-image artificial intelligence) in the form of written or spoken language.

(Ist auch in der en.wp noch ein Red-Link.)

und meinem Verständnis meint das "prompt" in dem Artikel in der en.wp:

  • nicht die Eingabe-Aufforderung, die der Computer dem Benutzer zeigt, sondern
  • die Beschreibung der Aufgabe, also: dessen, was der Benutzer will, dass der Computer tun soll, also (etwa): das, was der Benutzer am Ort der Eingabe-Aufforderung hin(ein)schreibt.

Damit stimmt dann auch die Verlinkung auf den Artikel Prompt nur bedingt.

Ping willkommen, Steue (Diskussion) 06:32, 2. Apr. 2023 (CEST)Beantworten

In dem Artikel in der en.wp steht, inzwischen, in dem Abschnitt "Malicious" (https://en.wikipedia.org/wiki/Prompt_engineering#Malicious) / 1. Absatz / 2. Satz:
... wherein the ML model is intended only to follow trusted instructions (prompts) provided by the ML model's operator.
Das Wichtige für unser Thema ist: instructions (prompts).
"instructions" sind Anweisungen.
Ping willkommen, Steue (Diskussion) 08:47, 2. Apr. 2023 (CEST)Beantworten

Der Artikel in der en.wp enthält zunehmend mehr

[Quelltext bearbeiten]

Ping willkommen, Steue (Diskussion) 08:38, 2. Apr. 2023 (CEST)Beantworten

Meerjungfrauen diagrammen besser?

[Quelltext bearbeiten]

„… eine zu lösende Textaufgabe als Graph zu repräsentieren, etwa als Mermaid-Diagramm …“ vs. „Wikipedia durchsuchen: meremaid“ oder gar „Wikipedia durchsuchen: meremaid diagramm“ … ⁈ (nicht signierter Beitrag von 93.229.109.29 (Diskussion) 15:13, 7. Okt. 2024 (CEST))Beantworten

Bin unsicher, was dieser Kommentat bedeutet, aber mittlerweile gibt es Mermaid (Software) --Stp1910 (Diskussion) 18:26, 13. Okt. 2024 (CEST)Beantworten
Das "Mermaid" in diesem Artikel, das "mer[e]maid" der IP-Adresse.
Steue (Diskussion) 20:51, 21. Mai 2025 (CEST)Beantworten

Unverständlicher Satz in der Einleitung

[Quelltext bearbeiten]

Dieser Satz ist unverständlich und die hervorgehobene Bedeutung, der ihn relevant für die Einleitung macht, erschliesst sich nicht. Bitte erläutern. "Die Sprachmodelle GPT-2 und GPT-3 waren wichtige Schritte im Prompt Engineering. Im Jahr 2021 zeigte das Multitask Prompt Engineering unter Verwendung mehrerer NLP-Datensätze eine gute Leistung bei neuen Aufgaben." --Jensbest (Diskussion) 19:23, 21. Nov. 2024 (CET)Beantworten

An Stp1910: Könntest Du auf obige Frage (Bitte) wohl eingehen?
Steue (Diskussion) 00:35, 22. Mai 2025 (CEST)Beantworten

"implizit vorgegeben"?

[Quelltext bearbeiten]

An Stp1910
Im Artikel Prompt / Einleitung / 1. Absatz / 2. Satz hast Du (beim Erst-Erstellen dieses Artikels) geschrieben:

"Dabei wird ein Prompt, also die Aufgabe, die von der KI erledigt werden soll, in das Eingabefeld geschrieben, z. B. als Frage, statt implizit vorgegeben."

Was soll dieses "implizit vorgegeben" bedeuten?

Wie könnte etwas "implizit vorgegeben" werden?
Steue (Diskussion) 00:29, 22. Mai 2025 (CEST)Beantworten

Vermutlich als Übersetzung. Wenn ich es jetzt lese, würde ich sagen, "als Frage, statt EXPLIZIT vorgegeben", also nicht als Befehl. (Wieviel ist 3x3 statt berechne 3x3 oder Was steht im Buch Moses, statt Fasse das Buch Mose zusammen.) Ist aber im Englischen Original nicht mehr so formuliert. --Stp1910 (Diskussion) 17:33, 23. Mai 2025 (CEST)Beantworten
Stimmt. Das habe ich auch gesehen.
Ich habe Perplexity.ai gefragt:
"Wie oder wodurch könnte bei 'Prompt Engineering' etwas 'implizit vorgegeben' werden?"
Antwort: perplexity.ai/ search/wie-oder-wodurch-konnte-bei-pr-TbhjBj3XS9mG_m3ObVM9Gg?utm_source=copy_output ( Damit der URL funktioniert, muss man "die eine LeerStelle nach der Domain" entfernen. Diese habe ich eingefügt, damit das Spam-Filter der Wiki-WeichWare die Speicherung und Veröffentlichung dieses Beitrages nicht blockiert. )
Meine ZusammenFassung:
"implizite" Vorgaben entstehen ( in diesem Zusammenhang ) durch die Wörter, die von dem jeweiligen Auftraggeber verwendet werden, also die Wortwahl.
Wörter, die mehrere Bedeutungen haben ( wie etwa "interessant" ), stellen die KI vor Probleme, denn die KI kann ja ( natürlich ) nicht wissen, ( was für den Auftraggeber "interessant" ist ), was sich der Auftraggeber bei welchem Wort gedacht hat. Deshalb greifen die KIs in solchen Fällen in der Regel auf ihre DatenBasis zurück -- und in der Regel ohne den Auftraggeber darüber in Kenntnis zu setzen und ohne den Auftraggeber zu fragen, was er mit ( z.B. ) "interessant" meint. Diese Annahmen der KI können dann auch mal daneben liegen, aber das merkt der Auftraggeber dann ja an der Antwort, die er erhalten hat. Die "Kunst" des Prompt-Engineerings besteht also darin, den Auftrag ( Prompt ) so auszudrücken ( zu formulieren ), dass die KI genau das, was sich der Auftraggeber vorstellt, liefert. In den meisten Fällen muss der Auftraggeber seinen Auftrag nachbessern.
Steue (Diskussion) 22:15, 23. Mai 2025 (CEST)Beantworten