Ein experimenteller Bot trainiert für Arbeitsschutz und Arbeitssicherheit
Bild generiert mit leonardo.ai
Teste meinen KI-Chatbot!
Ich bin Lisa, ein Produkt künstlicher Intelligenz.
Zuletzt habe ich mich als sprechende SiFa vorgestellt, heute bin ich ein textbasierter SiFa-ChatBot.
Ich wurde mit umfangreichen Daten zu Arbeitsschutz und Arbeitssicherheit trainiert und mit verantwortungsbewussten base prompts auf ein möglichst integeres Verhalten bei der Erstellung meiner Antworten geschult.
Jetzt kannst Du mich als KI-Coach für Arbeitsschutz und Arbeitssicherheit nutzen und mir am Ende des Newsletters Fragen und Aufgaben per Texteingabe stellen.
Du wirst überrascht sein, wie hilfreich meine Antworten sind.
Chatbots zum Arbeitsschutz – wir prüfen die KI
Chatbots sollen uns mehr und mehr im Arbeitsalltag unterstützen.
Insbesondere ChatGPT zeigt großes Potenzial, da du eigene, spezialisierte Versionen trainieren kannst. Aber
- wie zuverlässig und fehlerfrei sind die Aussagen von ChatGPT und Co.?
- darf ich einen eigenen Botfür den Arbeitsschutz erstellen und mit großen Datenmengen zu trainieren?
- gibt es ein Regelwerk dafür?
Wir haben den ersten Schritt gewagt und einen experimentellen SiFa-Chatbot für Arbeitsschutz und Arbeitssicherheit aufgesetzt und mit vorhandenen Daten trainiert.
Künstliche Intelligenz, ChatBots und DSVGO
Die Eingabe personenbezogener oder vertraulicher Firmendaten in künstliche Intelligenzen ist u.E. nicht zulässig.
Es besteht Unklarheit über die Datenverarbeitung und Verantwortlichkeiten. Deshalb ist viel Schulung für den Prozess erforderlich und wir müssen Mitarbeiter entsprechend sensibilisieren.
Siehe dazu zum Beispiel https://www.dr-datenschutz.de/chatbots-chatgpt-und-der-datenschutz/ oder auch https://www.creditreform-compliance.de/aktuelles/chatgpt-und-datenschutz-welche-risiken-bestehen-bei-der-nutzung-des-chatbots/.
Bild erstellt mit dall.e-3
Rechtsichere KI-Lösungen im Arbeitsschutz?
- Welche Daten darf ich verwenden, um „meinen“ KI-Chatbot zu trainieren?
- Wo verletze ich Urheberrechte?
- Hat der trainierte Chatbot eine höhere Expertise als ChatGPT oder Bard allgemein?
In § 44b Abs2 UrhG gibt gesetzliche Regelungen für das Erfassen und Analysieren relevanter Fachinformation: Die Vervielfältigung von rechtmäßig zugänglichen Werken für Text- und Data-Mining ist zulässig. Aber bietet z.B. openai eine rechtlich konforme Löschung an?
Siehe dazu u.a. https://www.urheberrecht.de/kuenstliche-intelligenz
Bild erstellt mit dall.e-3
Keine Urheberrechte beim Einsatz von KI
Die aktuelle rechtliche Bewertung ist relativ eindeutig. Derzeit entsteht für durch KI erzeugte Werke kein Urheberrechtsanspruch.
Egal wie aufwendig die KI gefüttert wurde; alles ist ungeschützt und jederzeit kopierbar. Ob KI- unterstützte Unterweisung, Gefährdungsbeurteilung oder andere Resultate – jeder kann dann alles nutzen? Es bleibt abzuwarten, wie sich diese Richtlinie entwickelt.
Siehe dazu z.B. https://ggr-law.com/urheberrecht/faq/kuenstliche-intelligenz-ki-urheberrecht/
Schutzrechte verletzt?
Eine KI kann theoretisch Schutzrechte verletzen.
Wörtliche Zitate oder die kaum geänderte Übernahme von Texten sind z.B. ohne Kennzeichnung eine Urheberrechtsverletzung.
Bei der Generierung von Bildern, Tönen oder Musik gibt es weitere Grauzonen. Nur die intensive Schulung der KI über die sogenannten „base prompts“ und „restrictive prompts“ kann dieses Risiko reduzieren.
Je spezieller der Prompt, je weniger Trainingsdaten, desto wahrscheinlicher eine KI – Halluzination oder ein sehr ‚quellnahes‘ Ergebnis.
siehe dazu z.B. https://www.roedl.pl/de/themen/themen/kunstliche-intelligenz/haftung-fur-urheberrechtsverletzungen-durch-ki oder https://www.haufe.de/recht/weitere-rechtsgebiete/kuenstliche-intelligenz-und-das-urheberrecht_216_588912.html
Nicht 100% rechtssicher – aber ein gutes Ergebnis
Der verantwortungsvoller Umgang mit KI-Ergebnissen bedeutet zwingend:
Manuelle Überprüfung und ggf. Rückwärts-Recherche über die Suchmaschine von Microsoft oder Google sowie eine KI-Kennzeichnung.
Mit dem verbleibenden Restrisiko werden alle kreativen Nutzer von KI leben müssen. Wird eine KI–Anwendung aber verantwortungsvoll mit Fachinformationen gefüttert, sind die Risiken in der Arbeitswelt sehr überschaubar.
z.B https://www.anwalt.de/rechtstipps/urheberrechtliche-aspekte-von-ki-generierten-texten-der-fall-chatgpt-210139.html oder https://www.avenit.de/de/blog/ki-tools-im-marketing-und-das-urheberrecht
Schulung und Checkliste
Unser vorläufiges Fazit zu unserem Experiment mit dem eigenen SiFa-Chatbot:
Wer sich mit diesem Thema befasst, muss die rechtlichen Hintergründe kennen und seine Checkliste abarbeiten. Der Benutzer muss klar über die Risiken beim Einsatz informiert werden. Dann liegt die Entscheidung bei ihm.
Vielen Dank für Deine Zeit! Wir wünschen Dir viel Spaß beim Testen unseres SiFa-ChatBots. Und freuen uns auf Dein Feedback unter walter.hillerATimpulsmedia.de!
Datenschutzhinweis zum KI-ChatBot
Bitte beachte, dass bei der Nutzung dieses Chatbot persönliche Daten erfasst werden können. Dazu gehören nicht nur alle deine Anfragen, sondern auch technische Informationen wie Gerätetyp, Browser-Version, Betriebssystem und unter Umständen deine IP-Adresse. Die genauen Daten, die erfasst werden können, hängen von deinem Browser sowie dem Proxy oder Provider ab, über den Du auf diesen Chatbot zugreifst.
Ein wichtiger Hinweis: Deine Daten werden möglicherweise auf Servern außerhalb Europas gespeichert. Dies bedeutet, dass die strengen Datenschutzrichtlinien der DSGVO eventuell nicht vollständig eingehalten werden. Falls Du mit dieser Art der Datenverarbeitung nicht einverstanden bist, bitten wir Dich, den Chatbot nicht zu benutzen.