Fundacja Panoptykon zwraca uwagę na oczywisty dla specjalistów od uczenia maszynowego problem – algorytmy automatycznego filtrowania nie są w 100 procentach skuteczne. Istnieje ryzyko, że treści wartościowe i nienaruszające praw autorskich zostaną w ten sposób zablokowane. Fundacja podaje konkretny przykład, opublikowanego w serwisie YouTube wykładu jednego z profesorów prawa na Harvardzie, który w swojej wypowiedzi posłużył się nagraniem fragmentu piosenki Jimi’ego Hendrixa. Oczywiście twórczość słynnego gitarzysty jest chroniona, ale publikacja krótkiego fragmentu do celów edukacyjnych, a tak właśnie było w opisywanym przypadku, jest w pełni legalna, podlega zapisom o dozwolonym użytku (i to zarówno w prawie amerykańskim, jak i polskim czy wielu innych krajów). Tymczasem algorytm filtrujący, zastosowany przez YouTube, nie był w stanie ocenić kontekstu publikacji i zablokował wykład.
Zniknąć może znacznie więcej treści niż wykłady naukowe, których autorzy wykorzystują ilustracyjnie chronione utwory. Niemal każdy mem z tłem z filmu, twarzą aktora itp. również może zostać odfiltrowany maszynowo.
Szczegóły dotyczące stosowania “technologii rozpoznawania treści” opisuje artykuł 13 projektu dyrektywy – tu znajdziecie jej pełną treść (PDF w języku polskim). Obecnie projekt stworzony w 2016 roku jest dyskutowany Parlamencie Europejskim. Do głosowania w Komisji Prawnej ma dojść 26 lub 27 marca. Więcej informacji na temat tej unijnej reformy publikuje Centrum Cyfrowe. Również na Facebooku zostało utworzone wydarzenie “NIE dla filtrowania internetu”. | CHIP