Wie benutzt man eine künstliche Intelligenz?

Die wegscheider KI ist so trainiert, möglichst viele Informationen zu liefern. Um möglichst effektive Antworten zu erhalten, sollten Sie klar und zielgerichtet kommunizieren. Hier sind einige Tipps, wie man das Beste aus einer künstlichen Intelligenz herausholt.  


🔍 1. Klare Fragen stellen

Formulieren Sie Ihr Anliegen möglichst konkret. 


Statt: „Wie geht eine Abschlagsrechnung?“ (linker Screenshot)

Besser: „Wie erstelle ich eine Abschlagsrechnung in Concept Office, Schritt für Schritt?“ (rechter Screenshot)


Vergleich der beiden Anfragen und Antworten:

🧱 2. Geben Sie Kontext

Wenn Sie an etwas arbeiten, sagen Sie, worum es geht. Je mehr Informationen die KI weiß, desto hilfreicher ist er. Beispiel:

Ich bin im Vorgangsmodul und erhalte die Meldung „Für den Möbelartikel Hersteller 'SC' Serie '123' Grundartikel-Nr. '12345' kann kein entsprechender Eintrag im Artikelstamm gefunden werden". Was kann ich tun?



🔁 3. Nutzen Sie Nachfragen

Wenn Sie etwas nicht verstehen, die Antwort nicht richtig ist oder Sie mehr Details benötigen, fragen Sie einfach nach:

„Ausführlicher und Schritt für Schritt“

"Hast du eine Quelle?"


⚙️ 4. Bitten Sie um Formate

ChatBots können Antworten in verschiedenen Formaten liefern:

  • Tabellen

  • Bullet-Points

  • Schritt-für-Schritt-Anleitungen

  • etc.

Sagen Sie einfach, was Sie möchten.


5. Kann ich den Antworten von KI ChatBots blind vertrauen?

Wenn Sie sich nicht sicher sind, ob die übermittelten Informationen richtig sind, sollten Sie sich zunächst die Quellen der Antwort prüfen. Die Quelle wird in den meisten Fällen am Ende der Antwort übermittelt. Bei kritischen oder sensiblen Anfragen sollten Sie stets einen Mitarbeiter von wegscheider kontaktieren, nutzen Sie hierzu beispielsweise support@wegscheider-os.de.

Bitte beachten Sie, dass es sich beim WegBot um ein automatisiertes System zur textbasierten Informationsverarbeitung und Unterstützung handelt. Trotz laufender Optimierung kann es bei der Nutzung der KI zu sogenannten „Halluzinationen“ kommen – also zur Ausgabe von falschen, unvollständigen oder irreführenden Informationen. Die wegscheider office solution GmbH übernimmt keine Haftung für Schäden, die durch die Nutzung des wegscheider KI entstehen. Die Nutzung erfolgt auf eigene Verantwortung. Weitere Informationen zum Thema Haftungsausschluss finden Sie im Artikel "Haftungsausschluss für die Nutzung der wegscheider KI".

ChatGPT 4o liefert auf die Frage "Haben Chatbots manchmal Halluzinationen?" die folgende Antwort:

Ja, Chatbots – insbesondere KI-Sprachmodelle wie ich – können Halluzinationen haben. In diesem Zusammenhang bedeutet „halluzinieren“, dass das Modell falsche oder erfundene Informationen liefert, die es so darstellt, als wären sie korrekt. Das passiert nicht aus böser Absicht, sondern ist eine Folge der Art und Weise, wie Sprachmodelle trainiert sind.

Warum halluzinieren Chatbots?

Hier sind einige Hauptgründe:

  1. Wahrscheinlichkeitsbasiertes Antworten:
    KI-Modelle sagen nicht die „Wahrheit“, sondern berechnen die wahrscheinlichste Wortfolge basierend auf ihrem Training.

  2. Kein echtes Verständnis:
    Sprachmodelle „verstehen“ Inhalte nicht wie Menschen. Sie können sehr überzeugend wirken, ohne wirklich zu wissen, was sie sagen.

  3. Lücken im Training:
    Wenn zu einem Thema keine oder nur schlechte Trainingsdaten vorhanden waren, kann das Modell erfundene Antworten liefern.

  4. Unklare oder mehrdeutige Fragen:
    Wenn eine Eingabe nicht präzise ist, kann das Modell spekulieren oder raten, was gemeint sein könnte.