Soft-Computing
Normalerweise sind Computer exakt, die Grundlage für alle Berechnungen sind Abfolgen von ja und nein, null und eins, an und aus, wahr und falsch. Es gibt kein „vielleicht“ und alle Daten sind vorhanden und eindeutig. In diesem Fall ist das Ergebnis einer Berechnung natürlich ebenfalls eindeutig.
Doch bei realen Daten sind häufig nicht alle Werte vorhanden, weisen Toleranzen und Fehler auf oder sind mit Unsicherheiten behaftet. Trotzdem möchte man die Daten auswerten und beispielsweise Trends und Korrelationen ableiten. Soft-Computing entwickelt Systeme, die auch in solchen Fällen aussagefähige Ergebnisse liefern.
Die Anwendungsbereiche von Soft-Computing werden immer vielfältiger:
- Big Data boomt, doch die zugrunde liegenden Daten stammen häufig aus unterschiedlichen Quellen, sind unvollständig und fehlerbehaftet.
- Bildanalyse-Algorithmen versuchen, Bildmotive auf der Basis von Wahrscheinlichkeiten zuzuordnen. Dabei geschehen zwangsweise falsche Zuordnungen, wenn dem System unbekannte Motive vorgelegt werden oder ein Bild mehrere Objekte enthält.
- Prognosemodelle (z.B. Klima) können nicht alle Daten exakt auswerten, weil diese gar nicht vorliegen, oder wären so komplex, dass die Berechnungen zu lange dauern würden. Soft-Computing hilft hier, den Rechenaufwand zu reduzieren und trotzdem aussagekräftige Ergebnisse zu bekommen.
- Simulationen in der Bioinformatik und Biomedizin verwenden Soft-Computing, um viele Simulationen parallel durchführen und Hypothesen austesten zu können.
Eine Besonderheit der verwendeten Algorithmen ist, dass sie lernfähig (und damit auch trainierbar) sind: Wird bei der Bildanalyse beispielsweise ein Bild falsch klassifiziert, so kann dies dem Algorithmus zusammen mit der korrekten Klassifizierung mitgeteilt werden und der Algorithmus passt sich automatisch an. Allerdings bedeutet das auch, dass den Ergebnissen des Soft-Computings nicht blind vertraut werden kann: Die Resultate beruhen immer auf Wahrscheinlichkeiten auf der Basis des vorhandenen Datenmaterials, sie können also auch falsch sein.
Soft-Computing ist kein neuer Zweig der Computerwissenschaften, vielmehr lassen sich die Wurzeln bis in die 1960er Jahre zurückverfolgen. Damals träumte man davon, durch „weiche“ Berechnungsverfahren eine umfassende Künstliche Intelligenz zu erschaffen. Diese Hoffnungen haben sich bis heute nicht erfüllt, aber die modernen Soft-Computing-Verfahren beruhen zum Teil auf Ansätzen, die bereits vor über 40 Jahren entwickelt wurden: Fuzzy Logic, neuronale Netze, Chaostheorie und evolutionäre Algorithmen bilden auch heute die Grundlage. Allerdings ist die zur Verfügung stehende Rechenleistung in dieser Zeit enorm gestiegen, so dass heute Milliarden Rechenoperationen pro Sekunde durchgeführt werden können.