Künstliche Intelligenz Überblick: Unterschied zwischen den Versionen
| (11 dazwischenliegende Versionen desselben Benutzers werden nicht angezeigt) | |||
| Zeile 5: | Zeile 5: | ||
* '''Künstliche Intelligenz (KI)''' ist der Oberbegriff für alle Verfahren, die „intelligentes“ Verhalten nachbilden. | * '''Künstliche Intelligenz (KI)''' ist der Oberbegriff für alle Verfahren, die „intelligentes“ Verhalten nachbilden. | ||
Dazu gehören: | Dazu gehören: | ||
* regelbasierte Systeme (z. B. | * regelbasierte Systeme (z. B. [[Expertensystem]]e mit festen Regeln) | ||
* lernende Systeme (Machine Learning) | * lernende Systeme ([[Machine Learning]]) | ||
* '''Maschinelles Lernen (ML)''' ist ein Teilbereich der KI. | * '''[[Machine_Learning|Maschinelles Lernen (ML)]]''' ist ein Teilbereich der KI. | ||
Hier werden Modelle mit Daten trainiert, um Muster zu erkennen und Vorhersagen zu treffen. | Hier werden Modelle mit Daten trainiert, um Muster zu erkennen und Vorhersagen zu treffen. | ||
Der Ablauf ist typisch: | Der Ablauf ist typisch: | ||
| Zeile 18: | Zeile 18: | ||
* Klassifikation (z. B. „Katze oder Hund“) | * Klassifikation (z. B. „Katze oder Hund“) | ||
* '''Deep Learning (DL)''' ist ein Teilbereich des ML. | * '''[[Deep Learning]] (DL)''' ist ein Teilbereich des ML. | ||
Es verwendet '''künstliche neuronale Netze mit vielen Schichten''' (deep = tief). | Es verwendet '''künstliche neuronale Netze mit vielen Schichten''' (deep = tief). | ||
Diese Modelle lernen Merkmale automatisch aus großen Datenmengen. | Diese Modelle lernen Merkmale automatisch aus großen Datenmengen. | ||
| Zeile 61: | Zeile 61: | ||
=== Token === | === Token === | ||
Ein '''Token''' ist eine kleine Texteinheit, die von einem KI-Modell verarbeitet wird. | Ein '''Token''' ist eine kleine Texteinheit, die von einem KI-Modell verarbeitet wird. | ||
Sie können ein einzelnes Zeichen, ein Wort oder Teile eines Wortes sein. <br> | |||
Englischer Text hat typischerweise etwa 4 Zeichen oder 0,75 Wörter pro Token. <br> | |||
KI-Modelle unterscheiden zwischen Input-Tokens (vom Benutzer eingegebener Text) und Output-Tokens (vom Modell generierte Antworten), wobei die Kosten oft unterschiedlich berechnet werden. | |||
KI-Modelle verarbeiten Text '''nicht als ganze Sätze, sondern als Token-Folgen'''. | KI-Modelle verarbeiten Text '''nicht als ganze Sätze, sondern als Token-Folgen'''. | ||
| Zeile 77: | Zeile 73: | ||
* wichtig für Kontext (z. B. „wie viel Text merkt sich das Modell?“) | * wichtig für Kontext (z. B. „wie viel Text merkt sich das Modell?“) | ||
'''KI ist der Oberbegriff, [[Machine Learning|ML]] lernt aus Daten, [[Deep Learning|DL]] nutzt neuronale Netze. KI arbeitet intern mit Tokens, gesteuert durch Prompts.''' | |||
'''KI ist der Oberbegriff, ML lernt aus Daten, DL nutzt neuronale Netze | |||
== Einsatzmöglichkeiten == | == Einsatzmöglichkeiten == | ||
Aktuelle Version vom 14. April 2026, 13:00 Uhr
Dieser Artikel gibt einen kompakten Überblick über Künstliche Intelligenz (KI), ihre Teilbereiche, Einsatzmöglichkeiten, wirtschaftliche Aspekte sowie rechtliche und ethische Rahmenbedingungen (EU-Fokus).
KI vs. ML vs. DL – Unterschiede
- Künstliche Intelligenz (KI) ist der Oberbegriff für alle Verfahren, die „intelligentes“ Verhalten nachbilden.
Dazu gehören: * regelbasierte Systeme (z. B. Expertensysteme mit festen Regeln) * lernende Systeme (Machine Learning)
- Maschinelles Lernen (ML) ist ein Teilbereich der KI.
Hier werden Modelle mit Daten trainiert, um Muster zu erkennen und Vorhersagen zu treffen. Der Ablauf ist typisch: * Trainingsdaten → Modell lernt Zusammenhänge → Vorhersage auf neuen Daten
Beispiele: * Spam-Erkennung * Kreditbewertung * Klassifikation (z. B. „Katze oder Hund“)
- Deep Learning (DL) ist ein Teilbereich des ML.
Es verwendet künstliche neuronale Netze mit vielen Schichten (deep = tief). Diese Modelle lernen Merkmale automatisch aus großen Datenmengen.
Beispiele: * Bilderkennung (Gesicht, Objekte) * Sprachverarbeitung (Speech-to-Text) * Chatbots und generative KI (z. B. Texte erzeugen)
Wichtiger Unterschied
- KI kann regelbasiert oder lernend sein
- ML ist immer datengetriebenes Lernen
- DL ist eine spezielle ML-Methode mit neuronalen Netzen
Kurzvergleich
| Kriterium | KI (gesamt) | ML | DL |
|---|---|---|---|
| Ansatz | Regeln + Lernen | Lernen aus Daten | Neuronale Netze (mehrschichtig) |
| Beispiele | Expertensystem | Spamfilter | Bilderkennung, ChatGPT |
| Datenbedarf | gering–hoch | mittel–hoch | sehr hoch |
| Komplexität | variabel | mittel | hoch |
| Erklärbarkeit | hoch–mittel | mittel | gering |
Prompt und Token
Prompt
Ein Prompt ist die Eingabe, die ein Benutzer an ein KI-System gibt. Er bestimmt maßgeblich die Qualität der Antwort.
Beispiele:
- „Erkläre mir Bubble Sort einfach.“
- „Schreibe einen Java-Code für eine Schleife.“
Je genauer der Prompt, desto besser das Ergebnis.
Token
Ein Token ist eine kleine Texteinheit, die von einem KI-Modell verarbeitet wird.
Sie können ein einzelnes Zeichen, ein Wort oder Teile eines Wortes sein.
Englischer Text hat typischerweise etwa 4 Zeichen oder 0,75 Wörter pro Token.
KI-Modelle unterscheiden zwischen Input-Tokens (vom Benutzer eingegebener Text) und Output-Tokens (vom Modell generierte Antworten), wobei die Kosten oft unterschiedlich berechnet werden.
KI-Modelle verarbeiten Text nicht als ganze Sätze, sondern als Token-Folgen.
Bedeutung von Tokens
- bestimmen die maximale Eingabelänge
- beeinflussen Kosten und Performance
- wichtig für Kontext (z. B. „wie viel Text merkt sich das Modell?“)
KI ist der Oberbegriff, ML lernt aus Daten, DL nutzt neuronale Netze. KI arbeitet intern mit Tokens, gesteuert durch Prompts.
Einsatzmöglichkeiten
- Office & Wissensarbeit: Textentwürfe, Übersetzungen, Recherche, Meeting-Notizen, Code-Assistenz
- Kundenservice & Vertrieb: Chatbots, Antwortvorschläge, Lead-Scoring, Personalisierung
- Industrie / IoT: Predictive Maintenance, visuelle Qualitätsprüfung, Supply-Chain-Optimierung
- Finanzen: Betrugserkennung, Kredit-Scoring (unter strengen Compliance-Vorgaben)
- Gesundheit: Bilddiagnostik-Support, Triage-Tools (als Assistenzsysteme)
- Bildung: Adaptive Lernpfade, automatisiertes Feedback, Lern-Analytics
- Öffentlicher Sektor: Dokumentenklassifikation, Entscheidungsunterstützung, Verkehrs- und Energieoptimierung
Wirtschaftliche Betrachtung
- Chancen: Studien schätzen für generative KI ein jährliches Potenzial von mehreren Billionen US-Dollar über viele Anwendungsfelder hinweg.
- Kosten:
- Daten (Beschaffung, Aufbereitung, Labeling)
- Technik (Modelle, GPU, Speicher, APIs)
- Betrieb (MLOps, Monitoring)
- Compliance & Security (DSGVO, EU-AI-Act)
- Personal & Change-Management (Schulungen)
- ROI-Hebel: Automatisierung, Qualitätssteigerung, Fehlerreduktion, bessere Entscheidungen, neue Produkte.
- Arbeitsmarkt: Produktivitätsgewinne sind wahrscheinlich, erfordern aber Weiterbildung und Anpassung von Kompetenzen.
Vorteile und Nachteile
Vorteile
- Skalierbare Automatisierung repetitiver Aufgaben
- Schnellere, datenbasierte Entscheidungen
- Personalisierung in Echtzeit
- Entlastung von Routinetätigkeiten
Nachteile und Risiken
- Bias & Fairness: Verzerrte Trainingsdaten können diskriminierende Ergebnisse erzeugen
- Erklärbarkeit: Black-Box-Modelle erschweren Nachvollziehbarkeit
- Sicherheit & Robustheit: Halluzinationen, Prompt- und Datenangriffe
- Betriebsrisiken: Modell-Drift, Compliance- und IP-Risiken
- Abhängigkeiten: Vendor-Lock-in, hohe Rechen- und Energiekosten
Rechtliche und ethische Aspekte (EU-Fokus)
EU-KI-Gesetz (EU AI Act)
Das EU-KI-Gesetz ordnet KI-Systeme in vier Risikoklassen ein:
- Verbotene Systeme (inakzeptables Risiko):
- Social Scoring,
- biometrische Echtzeit-Fernidentifizierung im öffentlichen Raum,
- manipulative Beeinflussung.
- Hochrisiko-Systeme (streng reguliert):
- Bewerbermanagement,
- Kredit-Scoring,
- Gesichtserkennung,
- kritische Infrastrukturen...
- Pflichten: Risikomanagement, Dokumentation, Transparenz, menschliche Aufsicht, Monitoring.
- Geringes Risiko (Transparenzpflichten):
- Chatbots,
- Emotionserkennung,
- generative Bild- und Videosysteme.
- Minimales Risiko:
- Spamfilter,
- Predictive Maintenance,
- Videospiel-KI.
Datenschutz (DSGVO)
- Zweckbindung, Datenminimierung, Transparenz und Sicherheit
- Artikel 22: Einschränkungen bei rein automatisierten Entscheidungen mit erheblicher Wirkung
- Datenschutz-Folgenabschätzung (DPIA) bei hohem Risiko
Ethik und gute Praxis
- Fairness und Nichtdiskriminierung
- Transparenz und Erklärbarkeit
- Sicherheit und Robustheit
- Menschliche Aufsicht (Human-in-the-Loop)
- Protokollierung und Monitoring
- Kennzeichnung von KI-generierten Inhalten (z. B. Deepfakes)
Kurzmerksatz
KI bietet große Chancen für Effizienz und Innovation, erfordert jedoch verantwortungsvollen Einsatz, klare Regeln und menschliche Kontrolle.
