York (pte001/21.09.2022/06:05) – Ein sogenanntes „Neuronales Faltungsnetzwerk“ sieht Objekte anders als Menschen es tun. Das könnte in realen KI-Anwendungen gefährlich sein, sagt James Elder von der University of York http://york.ac.uk , etwa in der Aus- und Weiterbildung (pressetext berichtete: http://pte.com/news/20220829028 ). Dies ist das Ergebnis einer Untersuchung, die neuartige visuelle Reize namens „Frankensteins“ nutzt, um herauszufinden, wie das menschliche Gehirn und Faltungsnetzwerke ganzheitliche, konfigurative Objekteigenschaften verarbeiten.
„Frankensteins sind einfach Objekte, die auseinandergenommen und falsch wieder zusammengesetzt wurden. Infolgedessen haben sie alle richtigen lokalen Funktionen, aber an den falschen Orten. Unsere Ergebnisse erklären, warum Deep-AI-Modelle unter bestimmten Bedingungen versagen, und weisen auf die Notwendigkeit hin, Aufgaben jenseits der Objekterkennung zu berücksichtigen, um die visuelle Verarbeitung im Gehirn zu verstehen“, sagt Elder.
Fehleinschätzungen durch „Abkürzungen“
Diese Modelle würden dazu neigen, bei der Lösung komplexer Erkennungsaufgaben „Abkürzungen“ zu nehmen. Während diese Abkürzungen in vielen Fällen funktionieren, so Elder, können sie in einigen realen Anwendungen der Künstlichen Intelligenz (KI), an denen die Forscher derzeit mit Industrie- und Regierungspartnern arbeiten, gefährlich sein. Zu solchen Anwendungen gehört der Straßenverkehr, der von Menschen anders gesehen wird als von Maschinen.
„Die Objekte in einer belebten Verkehrsszene – Autos, Fahrräder und Fußgänger – behindern sich gegenseitig und gelangen als Durcheinander von getrennten Fragmenten zum Auge eines Fahrers“, erklärt Elder. „Das Gehirn muss diese Fragmente richtig gruppieren, um die richtigen Kategorien und Positionen der Objekte zu identifizieren. Ein KI-System zur Verkehrssicherheitsüberwachung, das nur in der Lage ist, die Fragmente einzeln wahrzunehmen, wird bei dieser Aufgabe versagen und möglicherweise Risiken für ungeschützte Verkehrsteilnehmer falsch einschätzen“, so der Forscher.
Netzwerke brauchen Trainingseinheiten
Den Forschern zufolge führen Änderungen an Training und Architektur, die darauf abzielen, Netzwerke gehirnähnlicher zu machen, nicht zu einer konfigurativen Verarbeitung, und keines der Netzwerke war in der Lage, menschliche Objekturteile von Versuch zu Versuch genau vorherzusagen. „Wir spekulieren, dass Netzwerke trainiert werden müssen, um der menschlichen Konfiguralempfindlichkeit gerecht zu werden, um ein breiteres Spektrum von Objektaufgaben über die Kategorieerkennung hinaus zu lösen“, bemerkt Elder abschließend.
Quelle: www.pressetext.com
Bildnachweise: Stadtverkehr: In komplexen Verkehrssituationen kann eine KI versagen (Foto: pixabay.com, 12138562) (nach Reihenfolge im Beitrag sortiert)
Festgeld-Vergleich
Geben Sie die Laufzeit vor, ftd.de findet die besten Zinsen
Tagesgeld-Vergleich
Mit dem Einlagensicherungscheck sind Sie auf der sicheren Seite
Depot-Vergleich
Ohne den Vergleich von ftd.de sollten Sie kein Depot eröffnen
Geschäftskonten-Vergleich
Geschäftskonten müssen kein Geld kosten – sparen Sie mit ftd.de
Ratenkredit-Rechner
Ratenkredite wechseln häufig den Zins – sparen Sie bares Geld
Kreditkarten-Vergleich
Finden Sie schnell und einfach die günstigste Kreditkarte