Мета активно подпомага разпространението на съдържание, свързано със самонараняване в Instagram, като не премахва опасни изображения и насърчава потребителите, които са ги видели, да се сприятеляват помежду си.
Това показва ново проучване, според което модерирането на системата е “изключително неадекватно”, съобщи вестник “Гардиън”.
Датски изследователи са създали мрежа в платформата, включваща фалшиви профили на хора на 13-годишна възраст, в която са споделели 85 примера за съдържание, свързано със самонараняване, с постепенно нарастваща тежест, включително кръв, бръснарски ножчета и други.
Целта на проучването е да се провери твърдението на Meta, че е подобрила значително системите си за премахване на опасно съдържание, които според нея вече използват изкуствен интелект (ИИ). Технологичната компания твърди, че премахва около 99% от него, още преди то да бъде докладвано.
Огромен пропускНо Digitalt Ansvar (Цифрова отчетност), организация, която насърчава отговорното цифрово развитие, у..