Yahoo maakt deep-learning-model om porno te herkennen open source

Is dit porno? En dit dan? Voortaan hoef je niet meer te raden of zelf een algoritme te schrijven om een computer het te laten herkennen. Yahoo heeft namelijk een deep-learning-model dat zelf kan ontdekken of een plaatje pornografisch is open source gemaakt, schrijft Venturebeat.

Het model is vooral handig voor ontwikkelaars die werken met apps als Instagram en Pinterest (dus veel plaatjes) en daar geen porno op willen zien. Daarnaast kan het programma interessant zijn voor zoekmachines, om porno lager in de zoekresultaten te laten komen (of juist hoger, afhankelijk van je behoeften).

Zoals gezegd maakt het programma gebruik van deep learning, waarbij neurale netwerken getraind worden met veel data en bepaalde conclusies hier uit leren te trekken. Volgens Yahoo zelf is dit model uniek: “Voor zo ver wij weten is er geen open-source-model of algoritme dat plaatjes die not safe for work zijn herkent.” Het model van Yahoo is nu te verkrijgen op GitHub en is al getraind. Daardoor hoef je het alleen maar verder af te stellen, mocht je dat willen.

Disclaimer

Overigens is het niet voor het eerst dat een groot bedrijf als Yahoo een deep-learning-systeem open source maakt. Baidu, Facebook, Microsoft, Google en Twitter hebben dit ook al eens gedaan. Maar software als deze is niet perfect, erkent ook deze internetgigant. “We geven geen garanties over de accuraatheid van de output, maar maken het beschikbaar voor ontwikkelaars om het te ontdekken en verbeteren als een open-source-project”, schrijven de makers in een disclaimer.