image

Onderzoekers claimen doorbraak in beeldherkenningssoftware

dinsdag 18 november 2014, 16:30 door Redactie, 4 reacties

Twee groepen wetenschappers die onafhankelijk van elkaar werkten hebben naar eigen zeggen een doorbraak in beeldherkenningssoftware gerealiseerd, waarbij de software in staat is om foto's en video's veel nauwkeuriger te omschrijven dan voorheen mogelijk was.

Het gaat om onderzoekteams van Google en de Stanford Universiteit. Traditionele beeldherkenningssoftware was alleen in staat om individuele objecten te herkennen, maar de nieuwe software kan zichzelf aanleren om volledige scenario's te herkennen en te omschrijven. Het gaat dan om scenario's zoals "zwart-witte hond springt over een balk" en "man in een blauw wetsuit surft over een golf". De software van de Universiteit van Stanford kijkt naar verschillende objecten in de afbeelding en voorziet die van een tekst. Vervolgens wordt er naar een compatibele zin gekeken.

De onderzoekers van Google stellen in hun onderzoeksrapport (PDF) dat het systeem op een neuraal netwerk is gebaseerd dat zichzelf kan trainen. Als de datasets met omschrijvingen van afbeeldingen zullen toenemen, zal dat ook voor de prestaties van het systeem gelden. Door de ontwikkelingen kan het mogelijk worden om miljarden online foto's en video's te catalogiseren die nu vaak van een slechte omschrijving zijn voorzien. Ook zijn zoekmachines nu nog afhankelijk van de tekst bij een foto en video voor de indexering, maar straks zou beeldherkenningssoftware deze tekst zelf kunnen genereren, zo meldt de New York Times.

Image

Reacties (4)
18-11-2014, 16:38 door Anoniem
Zo werkt dat he, als je losse objecten kan herkennen is dit de volgende stap.
18-11-2014, 17:37 door Anoniem
Het herkennen en beschrijven van objecten op een afbeelding op zich vind ik niet zo bijzonder. Wat mij veel interessanter lijkt, is het voorspellen van de context van een foto. Bijv. een groep mensen die ergens naar kijkt en dat aan de hand van gelaatsuitdrukkingen, omgeving en andere zaken op de foto kan worden bepaald waar die mensen naar kijken. Is dat een televisie-uitzending, een straatartiest, of spotten ze misschien wel vliegtuigen, enz. Met andere woorden: de dingen die juist niet op de foto staan. Maar dat zal wellicht de volgende stap zijn.
19-11-2014, 00:26 door Anoniem
De onderzoekers van Google stellen in hun onderzoeksrapport (PDF) dat het systeem op een neuraal netwerk is gebaseerd dat zichzelf kan trainen.
Ik zie er bij de eerste (toegegeven: vluchtige) lezing helemaal niet in staan dat hun neurale netwerk zichzelf traint. Wat ik wel in zie staan is dat het voorheen kennelijk noodzakelijk was om de voorbeelden waarmee zo'n netwerk getraind wordt heel zorgvuldig samen te stellen om goede resultaten te krijgen. Met dit neurale netwerk kunnen de voorbeelden van Flickr geplukt worden en leert het netwerk ondanks het overslaan van al het zorgvuldige menselijke voorwerk buitengewoon goed. Ik betwijfel of je kan zeggen dat een neuraal netwerk zichzelf traint als het nog steeds door mensen met voorbeelden wordt gevoed in plaats van die zelf op te sporen. Dat neemt niet weg dat het een indrukwekkende prestatie is.
19-11-2014, 09:41 door Anoniem
Dit wordt interessant wanneer der Uberheit straks beslist dat mensen met groene ogen straks niet meer mogen pinnen of dat mensen met huisdieren daar extra belasting voor moeten betalen.
Reageren

Deze posting is gelocked. Reageren is niet meer mogelijk.