Hneď Viete, že Toto Je Porno. Rozumie Počítač? - Alternatívny Pohľad

Obsah:

Hneď Viete, že Toto Je Porno. Rozumie Počítač? - Alternatívny Pohľad
Hneď Viete, že Toto Je Porno. Rozumie Počítač? - Alternatívny Pohľad

Video: Hneď Viete, že Toto Je Porno. Rozumie Počítač? - Alternatívny Pohľad

Video: Hneď Viete, že Toto Je Porno. Rozumie Počítač? - Alternatívny Pohľad
Video: Жена депутата снимала порно с детьми 2024, Septembra
Anonim

Tumblr začiatkom minulého mesiaca oznámil, že porno zakáže. Keď nové pravidlá pre obsah nadobudli účinnosť, približne o dva týždne neskôr - 17. decembra - sa ukázalo, že budú problémy. Po zavedení systému umelej inteligencie, ktorý mal zakázať všetku pornografiu na webe, omylom označil nevinné príspevky na 455,4 miliónoch blogov na webe medzi 168,2 miliónmi príspevkov: vázy, čarodejnice, ryby a všetky tieto džezy.

Pornografia pre umelú inteligenciu

Aj keď nie je jasné, ktorý automatický filter Tumblr použil alebo vytvoril svoj vlastný - spoločnosť neodpovedala na otázky týkajúce sa tejto témy - je jasné, že sociálna sieť je zaseknutá medzi svojou vlastnou politikou a technológiou. Napríklad nekonzistentný postoj stránok k „ženám, ktoré ukazujú bradavky“a umeleckej nahote, napríklad viedol ku kontextovým rozhodnutiam, ktoré preukazujú, že ani Tumblr nevie, čo na svojej platforme zakázať. Ako môže častá spoločnosť určiť, čo považuje za obscénne?

Po prvé, blokovanie rizikového obsahu je ťažké, pretože je ťažké definovať, čo je od začiatku. Definícia obscénnosti je pasca na medvede, ktorá je staršia ako sto rokov. V roku 1896 Spojené štáty prvýkrát schválili zákony upravujúce obscénnosť. V roku 1964, v rozsudku Jacobellis v. Ohio, o tom, či Ohio môže zakázať premietanie filmu Louis Malle, Najvyšší súd vydal dnes pravdepodobne najslávnejšiu definíciu hardcore pornografie: „Dnes sa už nebudem snažiť definovať tento druh materiálu, ktorý, ako to chápem, bude uvedený v doslovnom opise; a nikdy nebudem schopný urobiť to zrozumiteľným, “povedal sudca Potter Stewart. „Ale viem, čo to je, keď to vidím, a film súvisiaci s týmto prípadom nie je.“

Algoritmy strojového učenia majú rovnaký problém. To je presne ten problém, ktorý sa snaží vyriešiť Brian Delorge, generálny riaditeľ spoločnosti Picnix, ktorá predáva špecializovanú technológiu umelej inteligencie. Jedným z ich produktov, Iris, je aplikácia na strane klienta na odhaľovanie pornografie s cieľom „pomôcť ľuďom“, ako hovorí Delorge, „ktorí nechcú porno vo svojom živote“. Poznamenáva, že osobitným problémom s pornografiou je to, že to môže byť čokoľvek, veľa rôznych vecí - a obrázky, ktoré nie sú pornografické, môžu mať podobné prvky. Obrázok na plážovej párty nemusí byť blokovaný nie preto, že by na ňom bolo viac kože ako na fotografii v kancelárii, ale preto, že je na okraji. „Z tohto dôvodu je veľmi ťažké naučiť sa algoritmus rozpoznávania obrázkov, aby urobil všetko naraz,“hovorí DeLorge.„Keď je definícia pre ľudí zložitá, počítač má problémy.“Ak sa ľudia nemôžu dohodnúť na tom, čo je porno a čo nie, môže počítač dokonca dúfať, že pozná rozdiel?

Aby ste mohli naučiť AI odhaľovať porno, prvá vec, ktorú musíte urobiť, je nakŕmiť ho porno. Veľa pornografie. Kde to môžem získať? Prvé, čo ľudia robia, je stiahnutie veľa videí z Pornhubu, XVideos, hovorí Dan Shapiro, spoluzakladateľ Lemay.ai, startup, ktorý vytvára filtre AI pre svojich klientov. „Toto je jedna z tých šedých oblastí právnej povahy - napríklad, ak sa dozviete z obsahu iných ľudí, patrí vám?“

Keď programátori stiahnu tony porno, vystrihli z videa pornografické zábery, aby sa ubezpečilo, že použité zábery neblokujú doručovateľov pizze. Platformy platia ľuďom, väčšinou mimo USA, za označovanie takéhoto obsahu; práca je málo platená a nudná, napríklad vstup do captcha. Len si sadnú a na vedomie: toto je porno, toto je toto. Musíte trochu filtrovať, pretože všetky porno obsahuje štítok. Učenie je lepšie, ak používate nielen fotografie, ale aj veľké vzorky údajov.

Propagačné video:

"Často nemusíte filtrovať iba porno, ale skôr sprievodný materiál," hovorí Shapiro. „Ako falošné profily s dievčenskou fotkou a telefónom.“Hovorí o sexuálnych pracovníkoch hľadajúcich klientov, ale mohlo by to byť čokoľvek, čo nie je úplne legálne. „Toto nie je porno, ale to je druh veci, ktorú na svojej platforme nechcete pozerať, však?“Dobrý automatizovaný moderátor sa učí miliónom - ak nie desiatkam miliónov - vzorového obsahu, ktorý vám môže ušetriť veľa pracovných hodín.

„Môžete to porovnať s rozdielom medzi dieťaťom a dospelým,“hovorí Matt Zeiler, generálny riaditeľ a zakladateľ spoločnosti Clarifai, počítačovej vízie, ktorá robí tento druh filtrovania obrázkov pre firemných klientov. "Môžem vám to s istotou povedať - pred pár mesiacmi sme mali dieťa." Nevedia nič o svete, všetko je pre nich nové. ““Musíte dieťaťu (algoritmu) ukázať veľa vecí, aby niečo pochopil. „Milióny a milióny príkladov. Ale ako dospelí - keď sme vytvorili toľko kontextu o svete a pochopili, ako to funguje - môžeme sa naučiť niečo nové len z niekoľkých príkladov. ““(Áno, výučba AI filtrovať obsah pre dospelých je ako ukazovať dieťaťu veľa porna.) Spoločnosti ako Clarifai dnes rýchlo rastú. Majú dobrú databázu sveta, dokážu rozprávať psom mačky oblečené z nahých. Spoločnosť Zeiler používa svoje modely na školenie nových algoritmov pre svojich klientov - keďže pôvodný model spracovával veľa údajov, personalizované verzie by si vyžadovali iba fungovanie nových súborov údajov.

Pre algoritmus je však ťažké ho napraviť. Dobré je to s obsahom, ktorý je zjavne pornografický; ale klasifikátor môže nesprávne označiť reklamu na spodné prádlo ako obmedzenú, pretože obrázok má viac kože ako povedzme kanceláriu. (S bikiny a spodnou bielizňou je podľa Zeilera veľmi ťažké). To znamená, že obchodníci by sa vo svojej práci mali zamerať na tieto okrajové prípady a uprednostňovať ťažko klasifikovateľné modely.

Čo je najťažšie?

„Anime porno,“hovorí Zeiler. „Prvá verzia detektora nahoty nevyužívala na kreslenie pornografiu.“AI to bolo mnohokrát nesprávne, pretože nerozpoznal hentai. "Po tom, čo sme na tom pracovali pre klienta, sme do modelu vložili veľa ich údajov a dramaticky sme zlepšili presnosť karikatúrneho filtra pri zachovaní presnosti reálnych fotografií," hovorí Zeiler.

Technológia, ktorá sa naučila vyčichávať porno, sa dá použiť aj na iné veci. Technológie tohto systému sú mimoriadne flexibilné. To je viac ako anime kozy. Napríklad skladačka z abecedy sa v novinách bežne používa ako automatický moderátor komentárov. Tento softvér funguje podobným spôsobom ako pri klasifikátoroch obrázkov s tým rozdielom, že sa radia skôr podľa toxicity než podľa nahoty. (Toxicitu v textových komentároch je rovnako ťažké určiť ako pornografia na obrázkoch.) Facebook používa tento druh automatického filtrovania na odhaľovanie samovražedných správ a obsahu súvisiaceho s terorizmom a pokúsil sa použiť túto technológiu na odhaľovanie falošných správ na svojej obrovskej platforme.

To všetko stále závisí od ľudského dohľadu; lepšie riešime nejasnosti a nejasné súvislosti. Zeiler tvrdí, že si nemyslí, že jeho produkt niekoho zaujal. Rieši problém škálovania internetu. Ľudia budú stále trénovať AI triedením a označovaním obsahu, aby ho AI mohla rozlíšiť.

Toto je budúcnosť moderovania: prispôsobené riešenia na kľúč poskytované spoločnostiam, ktoré podnikajú v celom svojom podnikaní tým, že učia čoraz viac pokročilejších klasifikátorov viac údajov. Rovnako ako Stripe a Square ponúkajú okamžité platobné riešenia pre podniky, ktoré ich nechcú spracovať, aj startupy ako Clarifai, Picnix a Lemay.ai vykonajú moderovanie online.

Dan Shapiro z Lemay.ai je nádejný. „Rovnako ako v prípade každej technológie sa stále vymýšľa. Takže si nemyslím, že sa vzdáme, ak zlyháme. “Dokáže však AI niekedy fungovať autonómne bez ľudského dohľadu? Nejasné. „V škatuľke na šnupavý tabak neexistuje žiadny malý muž, ktorý by filtroval každý výstrel,“hovorí. „Potrebujete získať údaje odkiaľkoľvek, aby ste si nacvičili algoritmus.“

Na druhej strane Zeiler verí, že umelá inteligencia jedného dňa všetko sama moderuje. Nakoniec sa počet ľudských zásahov zníži na nulové alebo malé úsilie. Ľudské úsilie sa postupne zmení na niečo, čo umělá inteligencia teraz nemôže urobiť, ako napríklad na vysokej úrovni, sebavedomie - všetko, čo majú ľudia.

Súčasťou toho je aj uznanie pornografie. Identifikácia je pre človeka relatívne triviálnou úlohou, ale je oveľa zložitejšie vycvičiť algoritmus na rozpoznávanie nuancií. Určenie prahu, keď filter označí obraz ako pornografický alebo ne-pornografický, je tiež náročná úloha, čiastočne matematická.

Umelá inteligencia je nedokonalým zrkadlom toho, ako vidíme svet, rovnako ako pornografia je odrazom toho, čo sa medzi ľuďmi deje, keď sú sami. Je v nej určitá pravda, ale neexistuje úplný obraz.

Ilja Khel