Na způsob, jak zabránit tomu, aby se děti na internetu setkávaly se škodlivým obsahem, přišli akademici z University of Warwick. Informaci o jejich výzkumu přinesl web TechXplore.
V centru práce britských akademiků stojí takzvaná „zodpovědná“ umělá inteligence, která pomáhá s moderováním obsahu. Navrhovaný systém dokáže procházet obrovské množství textových a obrazových materiálů a na jejich základě sestavovat „databáze“ informací o jednotlivých nejškodlivějších oblastech ohrožujících děti a mládež. Řadí se mezi ně například projevy kyberšikany, sebevraždy, anorexie, násilí na dětech a sexuální zneužívání dětí.
Pomoct při dosahování stanoveného cíle mají algoritmy pro zpracování přirozeného jazyka, rozšířené o znalostní vrstvu. Díky ní se technologie v pochopení řeči pomalu už blíží lidské úrovni. Dokáže totiž porozumět kontextu komentářů, nuancím výpovědí, sociálním vazbám mezi jednotlivci, utvářeným na základě věku a osobních vztahů.
Autoři výzkum vyvinuli systém pro moderování obsahu, který zohledňuje kontext sociálních škod a nevhodného chování. Zatím ale takový kritický dozor vykonávali výhradně jen lidé. Shweta Singh, jedna z autorek studie, k tomu dodává: „Zákonodárci dosud do značné míry umožňovali platformám sociálních médií, aby si tyto záležitosti spravovaly samy. To ale vyvolávalo pobouření jak ze strany lidí pečujících o děti a mládež, tak ze strany obhájců svobody projevu.“
Podle Shwety Singh musí zákonodárci lépe porozumět technologiím, pro které vymezují pravidla. Samotné soukromé firmy mají totiž jen malou motivaci k tomu, aby vyvíjely takto definovanou zodpovědnou umělou inteligenci. „Kdyby regulátoři pochopili, že ‚inteligentní‘ technologie, která čte mezi řádky a třídí neškodnou komunikaci od škodlivé, už je reálnou možností, požadovali by její začlenění do zákonů, které se snaží přijmout,“ uzavírá profesorka z University of Warwick.
Autor: Petr Pláteník