Bei einem Prompt handelt es sich im Grunde lediglich um einen Anweisung, die einem KI-System in Textform vermittelt, was es generieren und ausgeben soll. Also: Was der Nutzer haben will. Es kann sich dabei um einen oder mehrere Sätze, komplexe Befehle über mehrere Zeilen oder auch nur eine Ansammlung von Stichworten handeln. Das funktioniert, da Modelle wie das hinter ChatGPT stehende GPT-3 und die Bild-Modelle von Midjourney, DALL-E 2 oder Stable Diffusion über eine Art assoziatives Gedächtnis verfügen. Sie wurden mit immensen Mengen an Texten respektive Bildern und auch dazugehörigen Kontextinformationen – wie etwa Verschlagwortungen und Inhaltsangaben – trainiert. Von der Künstlichen Intelligenz erfasste Muster und statistische Beziehungen der Eingangsdaten wurden dabei im Datenmodell in Form in eines sogenannten latent space kodiert.
https://www.youtube.com/watch?v=yu27PWzJI_Y
This guide shares strategies and tactics for getting better results from large language models (sometimes referred to as GPT models) like GPT-4o. The methods described here can sometimes be deployed in combination for greater effect. We encourage experimentation to find the methods that work best for you.
Chatbots wie ChatGPT machen nicht immer das, was wir wollen. Manchmal aus Sicherheitsgründen, manchmal weil sie nicht richtig verstehen, was wir wollen. ChatGPT und andere Chatbots können jedoch mit Jailbreaks ausgetrickst werden.
How to jailbreak ChatGPT: get it to really do what you want | Digital Trends
Inzwischen hat ChatGPT mit Claude einen starken Konkurrenten bekommen, der in einigen Bereichen sogar deutlich besser ist und mehr kann als der OpenAI-Chatbot. Auf Github sammeln Nutzer verschiedene, zum Teil sehr komplexe Prompts, um die Grenzen des Chatbots auszuloten und ihn möglichst effektiv einzusetzen. Nicht wenige davon funktionieren aber auch mit ChatGPT, LLaMA 3.1 und anderen.
https://github.com/langgptai/awesome-claude-prompts
Wie eine Studie des Institute of Software der Chinese Academy of Sciences, von Microsoft, der Beijing Normal University und weiteren Forschungseinrichtungen herausfand, kann es ziemlich hilfreich sein, gerade nicht freundlich mit ChatGPT – und wohl anderen Chatbots – umzuspringen. Stattdessen kann es besser sein, ungeduldig zu sein und den Dienst „unter Druck zu setzen“. Wenn man etwa ChatGPT die Aufgabe gibt einen Text zu korrigieren oder eine Rechenaufgabe zu lösen und dabei vorgibt, dass „es sehr eilig“ oder „wichtig für meine Karriere“ ist, kann man dadurch bessere Ergebnisse bekommen.