KÜNSTLICHE INTELLIGENZ

START - Produkte - TRENDS - Künstliche Intelligenz

Der Begriff künstliche Intelligenz wurde 1956 von Dr. John McCarthy während einer Tagung über die Möglichkeiten Maschinen Intelligenz zu verleihen eingeführt. Laut McCarthy ist künstliche Intelligenz die Fähigkeit einer Maschine Funktionen auszuführen, die als intelligent betrachtet würden, wenn sie von einem Menschen durchgeführt würden. Einige Beispiele dieser Funktionen sind Argumentation, Lernen, natürliche Sprache und Entscheidungsfindung (Lopes et al. 2009).

Maschinenlernen als wichtiges Teilgebiet der künstlichen Intelligenz bezeichnet das Erstellen analytischer Modelle, mit denen Maschinen aus Daten „lernen“ und prädiktive Analysen erstellen können (Turkson et al. 2016). Die Algorithmen können in zwei Kategorien eingeteilt werden. Beim überwachten Lernen wird der Maschine das richtige Ergebnis zur jeweiligen Eingabe zur Verfügung gestellt. Aus den Daten werden Assoziationen gebildet und die Zuordnung wird immer besser. Beim unüberwachten Lernen wird hingegen kein Ergebnis vorgegeben. Der Algorithmus optimiert seine Modellierung so, dass sie die Daten möglichst gut repräsentiert und erklärt (Sheikhpour et al. 2017).

Zu dem Paket gehören folgende Themen, zu denen Sie hier kurze Infos erhalten. Sobald Sie ausführlichere Informationen wünschen, können Sie das Gesamtpaket erwerben.

1.1 Datenklassifikation

Große Datenmengen sind oftmals schwierig zu überblicken. Eine automatische Klassifikation hilft strukturierte und unstrukturierte Daten zuzuordnen und die gewünschten Informationen schnell zu finden.

Die Klassifizierung von Daten wird oftmals über Labels, also beschreibende Schlagworte, erreicht. Es werden beispielsweise Texte kategorisiert, Bildmaterial kommentiert oder Musik bestimmte Emotionen zugeordnet. Da die manuelle Zuordnung der Labels sehr aufwändig ist, werden intelligente Algorithmen dafür verwendet.

High-Efficiency Video Coding (HEVC) hat gegenüber dem MPEG-4 Standard eine 40% geringere Bitrate bei gleicher visueller Qualität. Die Codierung ist jedoch entsprechend komplexer (Dey und Kundu 2015). Mittels Maschinenlernen kann die Codierungszeit deutlich verringert werden und vorhandene Videos für den mobilen Gebrauch verkleinert werden, um Rechenressourcen zu schonen (Momcilovic et al. 2015; Van et al. 2015).

1.2 Bildverarbeitung

Künstliche Intelligenzen könne Bilder in hoher Geschwindigkeit verarbeiten und Merkmale identifizieren, die einem menschlichen Betrachter verborgen bleiben.

Bewertung der Bildqualität: Die automatische und objektive Bewertung der Bildqualität spielt in verschiedenen Anwendungen der Bildverarbeitung eine wichtige Rolle. Mittels Maschinenlernen und neuronalen Netzen kann die Bewertung so erfolgen, dass sie mit der vom Menschen wahrgenommenen Qualität übereinstimmt (Alhakim et al. 2015). Besonders durch die zunehmende Verbreitung stereoskopischer Bilder gewinnt diese Technologie an Bedeutung (Jiang et al. 2015).

Diagnose von Melanomen: Melanome sind eine Hautkrebsart deren Diagnose durch Computer unterstützt wird. Anhand der Bilder kann automatisch bestimmt werden, ob es sich um einen bösartigen oder um einen gutartigen Tumor handelt (Correa et al. 2015).

1.3 Bildklassifikation

Die Klassifikation von Bildern ist schwieriger als die von Texten, weil die Informationen unstrukturiert vorliegen und zunächst identifiziert werden müssen. Dennoch können künstliche Intelligenzen Bilder nach Kriterien gruppieren und automatisch nach Merkmalen suchen.

Klassifizierung von Kartenmaterial: Die Klassifizierung von Kartenmaterial wird beispielsweise eingesetzt, um die Entwicklung der Urbanisierung zu verfolgen und Erdrutschen frühzeitig zu erkennen. Mit verschiedenen intelligenten Algorithmen können große Mengen an Satellitenbildern in kurzer Zeit analysiert werden (Bhatt et al. 2015; Leshchinsky et al. 2015).

Überwachung des Ökosystems: Die Artenvielfalt ist ein zentraler Indikator für die Funktionsfähigkeit eines Ökosystems. Ihre flächendeckende Überwachung wird durch Maschinenlernen ermöglicht. Durch die Analyse der Geräusche lassen sich Art und Anzahl von Vögeln und Fledermäusen bestimmen, mit Bildern die Arten von Bäumen und anderen Pflanzen (Reyes und Camargo 2015; Zamora-Gutierrez et al. 2016).

1.4 Software

Dieser Aspekt beinhaltet Artikel über den Einsatz von intelligenten Algorithmen in der Softwareentwicklung. Dadurch lassen sich Sicherheitslücken und Bugs automatisch identifizieren sowie der Entwicklungsaufwand besser abschätzen.

Aufwandsabschätzung in der Softwareentwicklung: In frühen Projektphasen der Softwareentwicklung gestaltet sich die Aufwandsabschätzung aufgrund inkonsistenter, unvollständiger oder unklarer Projektdaten schwierig. Mit Maschinenlernen kann der Aufwands genauer beurteilt werden, wodurch Termine verlässlicher geplant und Budgets effizienter verteilt werden können (Rama Sree 2015; Rath et al. 2016).

Identifikation von Sicherheitslücken: Um Sicherheitslücken in Software zuverlässig und effizient zu identifizieren, wird der Quellcode mit intelligenten Algorithmen auf statische und dynamische Sicherheitsmerkmale überprüft (Grieco et al. 2016).

1.5 Analyse von Stimmungen

Die Emotionen und Stimmungen von Menschen können anhand ihres Verhaltens und ihrer Wortwahl identifiziert werden. Dadurch lässt sich die Meinung zu bestimmten Themen ergründen oder die Kommunikation an die Gefühlslage des Gegenübers anpassen (Sahu et al.).

Sentimentanalyse: Bei der Sentimentanalyse werden Stimmung und Emotionen der Nutzer von sozialen Medien analysiert.

Sentimentanalyse arabischer Texte: Dieses Cluster enthält Artikel über die Sentimentanalyse im Spezialfall arabischer Texte.

1.6 Social Media

Soziale Medien bieten Privatpersonen und Organisationen eine Kommunikationsplattform. Dabei entstehen große Mengen an Daten die mit intelligenten Algorithmen analysiert und nutzbar gemacht werden können.

Spam in Form von E-Mails ist seit längerem ein Problem, allerdings findet man diesen auch in Kommentaren auf verschiedenen Webseiten und in sozialen Medien. Spam-Nachrichten enthalten oftmals Werbung, aber auch Schadsoftware, Phishing-Attacken und Fehlinformationen. Die große Menge an Spam-Nachrichten macht ein manuelles Aussortieren praktisch unmöglich, weshalb ein Interesse an automatischen Filtern besteht. Im Gegensatz zu statischen Filtermethoden die nach bestimmten Worten und Absendern suchen, passen sich intelligente Methoden automatisch an und sind zuverlässiger (Alsaleh et al. 2015; Chen et al. 2015b; Kim et al. 2016b).

1.7 Webservices

Im Internet werden unzählige Dienstleistungen angeboten, einige davon im Bereich künstliche Intelligenz. Außerdem klassifizieren beispielsweise Suchmaschinen die Dienstleistungen automatisch, um die Auswahl für den Nutzer zu erleichtern.

Webseitenklassifizierung: Um die große Zahl an Webseiten im Internet für Nutzer, Suchmaschinen, Webmining und kontextbezogene Werbung nutzbar zu machen, müssen diese klassifiziert werden. Als Datengrundlage dient der Inhalt der Webseite, der HTML-Code sowie neuerdings auch die Darstellung und die Ästhetik (Goncalves und Videira 2015; Onan 2016).

1.8 Fehlerdiagnose

Mit Hilfe von intelligenten Algorithmen können Defekte in Maschinen oder elektronischen Bauteilen diagnostiziert und prognostiziert werden.

Fehlerdiagnose elektronischer Bauteile: Mehrdeutige Fehleranalysen von elektronischen Bauteilen führen zu falschen Reparaturmaßnahmen. Eine künstliche Intelligenz kann die nötigen Diagnoseschritte ermitteln und anhand der Ergebnisse den Defekt zuordnen. Dadurch verringern sich die Reparaturkosten und die Reparaturzeit (Bolchini und Cassano 2015).

Zustand Kugellager: Einer der Hauptgründe für Fehlfunktionen rotierender Maschinen sind defekte Kugellager. Werden die erzeugten Vibrationen mit intelligenten Algorithmen analysiert, können Rückschlüsse auf den Zustand gezogen und Stillstände vermieden werden. (Sharma et al. 2015; Vakharia et al. 2016).

1.9 Prognosen durch Künstliche Intelligenz

Lernende Algorithmen eignen sich hervorragend um Muster und Regelmäßigkeiten in Daten zu erkennen und mit diesen Prognosen zu erstellen. 

Non-Intrusive Load Monitoring (NILM): Non-Intrusive Load Monitoring oder Energy Disaggregation bezeichnet die Ableitung des individuellen Stromverbrauchs einzelner Geräte aus dem Verbrauchsprofil eines Gebäudes. Dabei werden charakteristische Eigenschaften wie Leistung und Zustandsübergänge für die Mustererkennung und lernenden Algorithmen ausgenutzt. Diese Methode ist deutlich kostengünstiger als Sensoren an jedem Gerät anzubringen (Barsim und Yang 2015; Tang et al. 2016).

Structural Health Monitoring (SHM) in Windparks: Die Zahl an Windkraftanlagen wächst stetig, allerdings sind diese in Wartung und Betrieb immer noch teuer, besonders bei Offshore-Windparks. Durch die automatische Auswertung von Sensordaten zu beispielsweise Vibrationen und Leistung lassen sich Schäden und Verschleißspuren identifizieren und vorbeugende Handlungen einleiten. Dadurch sinken die Betriebskosten, während die Zuverlässigkeit und Produktivität steigen (Antoniadou et al. 2015; Badihi et al. 2015).

Prognosen am Aktienmarkt: Investoren am Aktienmarkt verwenden eine Vielzahl technischer Indikatoren, wie gleitende Durchschnitte, Momentum oder MACD (Moving Average Convergence/Divergence), um zukünftige Entwicklungen abzuschätzen und ihre Handelsstrategie festzulegen. Um die oft unzureichende Zuverlässigkeit der Analysen zu verbessern, wird zunehmend auf Maschinenlernen zurückgegriffen. Besonders der Support Vector Machine Algorithmus und künstliche neuronale Netze zeigen vielversprechende Ergebnisse (Asad 2015; Inthachot et al. 2015; Stanković et al. 2015).

1.10 Mustererkennung durch Künstliche Intelligenz

Durch die Identifikation von Mustern und Regelmäßigkeiten erkennen künstliche Intelligenzen auch komplexere Vorgänge wie Sprache, Gesten und Emotionen. Diese Eigenschaften sind besonders für die Entwicklung intelligenter Roboter nötig.

Emotionserkennung: Die automatische Erkennung von Emotionen gestaltet sich schwierig, da die Persönlichkeit des Einzelnen einen großen Einfluss auf die entsprechenden Reaktionen hat. Mit Maschinenlernen sollen Merkmale in Gesichtsausdruck, Durchblutung, Hauttemperatur, Gangart, Atmung oder Sprachstil bestimmten Emotionen zugeordnet werden. Der Abgleich der Emotionen erfolgt über Elektroenzephalografie, bei der die elektrische Aktivität des Gehirns an der Hautoberfläche gemessen wird. Diese Methode ist jedoch sehr aufwändig und für die meisten Anwendungen nicht geeignet (Fu und Frasson 2016; Li et al. 2016b; Shirahama und Grzegorzek 2016).

Spracherkennung: Da Sprache eine intuitive Art der Kommunikation ist, findet die automatische Spracherkennung bereits in einigen Bereichen Anwendung. Die Fehlerrate ist jedoch noch vergleichsweise hoch und die Reaktionsmöglichkeiten der Systeme begrenzt. Weiterentwickelte intelligente Algorithmen können zunehmend Hintergrundgeräusche und Rauschen herausfiltern, Humor und Sarkasmus erkennen, verschiedene Aussprachen berücksichtigen und die sprechende Person identifizieren, um auf ihre Eigenarten zu reagieren. Zusammengefasst erhöht dies die Genauigkeit und die Leistungsfähigkeit der Spracherkennung (Hansen und Hasan 2015; Moritz et al. 2015; Rao et al. 2015; Squire und Gazda 2015).

1.11 Datengrundlage für Künstliche Intelligenz

Gute Ergebnisse beim Maschinenlernen setzten eine solide Datenbasis voraus. Gegebenenfalls muss diese aufbereitet und an den jeweiligen Algorithmus angepasst werden.

Instance Selection: Instance Selection ist ein wichtiger Schritt der Datenaufbereitung im Maschinenlernen. Dabei erreicht eine Teilmenge der Daten die gleiche Güte wie der gesamte Datensatz, indem nutzlose und fehlerhafte Daten aussortiert werden. Die Methode stellt sicher, dass Maschinenlernen mit den ständig wachsenden Datensätze verwendet werden kann (Carbonera und Abel 2015; Zhai et al. 2016).

Rough Set Theory: Rough Set Theory ist ein Werkzeug zur Attributreduktion in Datensätzen. Das heißt ein Teil der Attribute wird entfernt, um einerseits die Datenmenge zu verringern und andererseits unsichere Attribute auszugleichen (Hedar et al. 2015; Teng et al. 2016).

1.12 Extreme Learning Machine

Extreme Learning Machine (ELM) ist ein Algorithmus zur Bildung neuronaler Netze für Klassifikationen und Regressionen. Die Stärken sind eine extrem schnelle Lerngeschwindigkeit und die simple Struktur. Die Robustheit gegenüber Ausreißern in den Trainingsdaten ist jedoch unterdurchschnittlich. Es werden zahlreiche Verbesserungen auf Basis dieses Algorithmus entwickelt, um die Anwendungen zu erweitern und seine Schwächen zu kompensieren (Gao et al. 2015a; Zhang und Luo 2015).

1.13 Klassifikation komplexer Sachverhalte

Bei der Klassifikation komplexerer Sachverhalte müssen die Daten nicht nur analysiert werden, sondern auch Schlussforderungen gezogen werden.

Klassifikation der Kreditwürdigkeit: Die Beurteilung der Kreditwürdigkeit ist eine typische Aufgabe für die Verwendung von Maschinenlernen. Die Datengrundlage für die Entscheidung bilden soziodemographische und wirtschaftliche Informationen wie Alter, Einkommen und Eigentum. Allerdings ist eine Optimierung der Methoden nötig, da die Ergebnisse aufgrund falscher Prioritäten und fehlender Angaben zu häufig inkorrekt sind (Berka 2016; Djemaiel et al. 2016).

1.14 Asymmetrische Datenverteilung

In vielen realen Anwendungen finden sich asymmetrisch verteilte Daten wieder. Für die selbstlernenden Algorithmen stellt dies ein Problem dar, da die Leistungsfähigkeit und die Genauigkeit darunter leiden (Tomar und Agarwal 2015).

Asymmetrische Datenverteilung in Datenklassen: Für Szenarien mit zwei Klassen gibt es bereits einige Lösungen für das Problem asymmetrisch verteilter Daten. Diese lassen sich jedoch nicht auf Szenarien mit mehreren Klassen anwenden. Universellere datenorientierte und modellorientierte Algorithmen befinden sich derzeit in Entwicklung (Abdi und Hashemi 2015; Tomar und Agarwal 2015).

Ausgleich Asymmetrischer Datenverteilungen: Die Asymmetrie der Daten kann durch künstliches Einfügen der unterrepräsentierten Informationen ausgeglichen werden. Das daraus resultierende Rauschen muss jedoch anschließend wieder herausgefiltert werden (Zhang et al. 2016a).

1.15 Künstliche Intelligenz in der Textverarbeitung

Mit intelligenten Algorithmen können wichtige Informationen in Texten hervorgehoben werden oder der Autor anhand gewisser Merkmale identifiziert werden.

Webservices: Dieses Cluster enthält Artikel über den Einsatz von Maschinenlernen für verschiedene Webservices. Die Anwendungen reichen von der Gruppierung ähnlicher Services über die Beurteilung der Qualität bis hin zum Angebot spezialisierter selbstlernender Algorithmen als Service (Chicco und Masseroli 2015; Lo et al. 2015; Rupasingha et al. 2015).

Autorenzuordnung: Anhand des Schreibstils und des verwendeten Wortschatzes können Texte unbekannter Herkunft ihrem Autor zugeordnet werden. Neben der Identifikation von Plagiaten kann auch der Programmierer einer bestimmten Software bestimmt werden, um gegen die Verbreitung von Schadsoftware vorzugehen(Villar-Rodriguez et al. 2016; Wisse und Veenman 2015).

1.16 Deep Learning

Deep Learning wird als das dem menschlichen Gehirn ähnlichste Modell künstlicher Intelligenz angesehen. Es kann mehrere Ebenen an Repräsentationen und Abstraktionen lernen, um Zusammenhänge in Daten zu erschließen. Oftmals handelt es sich um hierarchische Architekturen für die Modellierung nichtlinearer und stochastischer Probleme (Zhang et al. 2016b).

Restricted Boltzmann Machine: Restricted Boltzmann Machines spielen eine wichtige Rolle in aktuellen Deep Learning Methoden, da die meisten Deep Learning Netzwerke auf ihnen aufbauen. Es handelt sich um generative, stochastische, künstliche, neuronale Netzwerke die eine Wahrscheinlichkeitsverteilung anhand ihrer Eingangsgrößen lernen können. Anwendung finden sie in der Muster-, Bild- und Spracherkennung sowie in der Videoverarbeitung (Chen et al. 2015a; Yan et al. 2015; Zhang et al. 2016b).

Beschleunigung des Lernprozesses: Deep Learning Algorithmen benötigen hohe Rechenressourcen und eine erhebliche Zeit für den Lernprozess. Durch eine parallele Berechnung und den Einsatz von FPGAs anstelle gewöhnlicher CPUs lässt sich der Prozess deutlich beschleunigen.

1.17 Künstliche Intelligenz im Clustering

Naturinspirierte Clusteralgorithmen: Von der Natur inspirierte Algorithmen wie der Artificial Bee Colony Algorithmus, der Particle Swarm Algorithmus oder die Ant Colony Optimization stellen vielversprechende Ansätze für die Clusterung dar. Die geringe Effizienz und die sonst übliche Optimierung nur innerhalb lokaler Minima stellen bei diesen Verfahren ein kleineres Problem dar (Alam et al. 2015; Bonab et al. 2015).

1.18 Fuzzylogik

Mit dem Konzept der Fuzzylogik können ungenau definierte und unsichere Eigenschaften sowie Wahrheitsgrade modelliert werden. Daten müssen dabei nicht vollständig bestimmten Kriterien zugeordnet werden, sondern können diese auch nur teilweise erfüllen (Arturo Sangalli).

GESAMTPAKET KAUFEN