• 当前位置:首页 记录片 净网特工

    净网特工

    评分:
    0.0很差

    分类:记录片其它2018

    主演:内详 

    导演:汉斯·布洛克,Moritz Riesewick 

    排序

    播放地址

    提示:如无法播放请看其他线路

     剧照

    净网特工 剧照 NO.1净网特工 剧照 NO.2净网特工 剧照 NO.3净网特工 剧照 NO.4净网特工 剧照 NO.5净网特工 剧照 NO.6净网特工 剧照 NO.16净网特工 剧照 NO.17净网特工 剧照 NO.18净网特工 剧照 NO.19净网特工 剧照 NO.20

    剧情介绍

      从脸书公司的网站中,清除“不合时宜”内容的内容审查员,人称“清洁工”。  本片首次独家披露网络审查作业的真实现状,描写社交媒体所存在的风险,还揭露了审查作业对“清洁工”造成精神创伤的事实,并聚焦世界各国日益高涨的言论自由论争。  采访从脸书位于菲律宾的“清洁工”工作据点开始。  被聘用的多为会多国语言的学生精英。他们以秒为单位,审查世界各国用户发布的数以亿计的图片视频,删除色情、暴力内容的帖子。有时也会误删一些具表现性、新闻性、艺术性的内容。  他们被严禁向家人透露工作内容。  社交媒体的发布者和管理者,大半是业余人士,由用户生成的内容,使得平台异常脆弱,存在很大风险。必须针对不同文化、宗教、价值观以及时代等要素,做出不同对应。  与此同时,审查被认为是“威胁表达自由”,“导致政治迫害”,对各大社交网络服务平台的批评,也在日渐高涨。  本片潜入互联网的阴暗幕后,曝光秘密的数字保洁业的内幕,揭示是谁在控制我们的所见所闻和所思所想。

     长篇影评

     1 ) 【转载】信息“擦洗工”、事实核查员……那些卡在人工与智能夹缝的新兴传媒人

    原作者 全媒派 2018-10-24 仅供学习交流

    信息“擦洗工”、事实核查员……那些卡在人工与智能夹缝的新兴传媒人 qq.com

    9月,加州女子Selena Scola一纸诉状把Facebook告上了法庭——因为看了过多暴力、血腥和色情图片,她患上了PTSD(创伤后应激障碍)。Selena是Facebook合作的第三方Pro Unlimited的内容审核员,负责删除Facebook上“剧毒、不安全、有害的内容”,包括色情、暴力、仇恨言论等。

    对于PTSD,维基百科的解释是“指人在经历过性侵犯、战争、交通事故等创伤事件后产生的精神疾病”,常见于遭受重大打击后导致的精神创伤。然而,在互联网时代,没有性侵,也没有战争和交通事故,因视听感官长时间遭受刺激产生的伤害,不亚于物理刺激造成的精神损害。

    新技术带来了繁荣的互联网产业,随之也诞生了新工种,内容审查员是其中的代表之一,除此外,还有事实核查员、论坛版主、合作伙伴经理等,他们的生存与困境成为了网络时代的缩影。

    内容审查员与PTSD:隐匿的信息“擦洗工”,无处安放的焦躁

    社交网络上,一头是梦想家用技术缔造的开放盛世——用网络建设一个连接世界的地球村,另一头的人躲在盛世的影子里,把好最后一道关卡——鉴定并删除变态的视频,这一点,人力比机器做得好多了,至少在当下是如此。

    或者更早以前的论坛时代,版主们也担任着这个角色,但他们的规模和工作量远不如社交网络时代。据报道,仅Facebook一家,内容审查员的数量就达到了7500人。这些人甚至不是Facebook的员工,只是被第三方雇佣来的廉价劳动力。

    2014年,《连线》杂志发表了一篇调查报道《社交网站上不为人知的隐匿职业:信息“擦洗工”》。担任“擦洗工”的廉价劳动力多分布在东南亚,他们可以拿着“美国水平”的工资,代价是“直面人性的恶”。

    YouTube在美国本土雇佣的审查员要求更高,需要对东南亚员工审核过的视频进行二次过滤,公司许以YouTube的工作场所、办公福利等条件,甚至承诺转正机会,Facebook条件也是如此。

    事实上,这些审查项目几乎是秘密进行,科技公司和外包员工、第三方签订保密协议,不允许他们向外透露任何审查细节,Facebook把这个秘密项目起名为honeybadger(蜜獾)。在此次起诉事件中,Selena暂时无法提供更多工作细节,她担心一旦违反保密协定,会遭到报复。

    纪录片《信息擦洗工》海报(2018.5)

    在Selena的起诉声明中,她提到Facebook和第三方公司都不曾提供心理干预以保证审查员的精神健康。但即便提供了心理医生,内容审查员也不知道如何开口讲述自己的经历。据《连线》杂志报道,YouTube审查员Rob说,YouTube给擦洗工们雇了心理咨询师,理论上谁都可以和他们谈心,但Rob不知道如何接近他们。据他所知,也没有谁去找过咨询师。所以他只能靠自我调节——喝酒喝得越来越多,身材也越来越胖。

    而创伤之后,审查员们可能产生一辈子的心理阴影。Selena的起诉文件里写道:“她的PTSD症状可能会因为碰到鼠标发作,也可能是因为走进了一栋冷冰冰的大厦、在电视上看到一段暴力视频、听到吵闹的声音,又或者,是因为受到一点惊吓。”

    如果要真正解决审查员们的心理问题,或许还是应该回归技术,比如提高人工智能的识别能力和审查效率。但目前看来,开放的网络世界背后,还有如此多阴暗和不堪,扎克伯格与科技巨头们在人工智能审查上所做的努力还远远不够。

    Reddit版主:用爱发电,无薪且糟心的职位

    Reddit,一家月活达到3亿的神奇网站。界面设计极其Old School,但因为许多细分、有趣的小组吸引了一个又一个小圈层爱好者。

    相比于Facebook内容审查员的隐秘身份,Reddit版主似乎更为人熟知一些,他们有自己的账号,有删帖和禁言的权利,小组用户可以直接和版主沟通。不同的是,在Reddit上当版主没有薪水,全靠志愿者们用爱发电,他们也一样要遭受种族主义、性别歧视、水贴刷屏等垃圾内容的精神侵害,甚至是被用户直接攻击。

    全媒派在《 不抬杠是不可能的!有人用五年筛出了60万优质杠精 qq.com》提到一个小组changemyview,该小组为了建立一个理性讨论的优质社区,启用了22个志愿者作为版主,24小时巡视新鲜发帖,如有不当,则会沟通或删除。

    其它小组的版主工作模式也是如此,但生存条件可能更艰难一些,至少,版主人数达不到22个之多。而被审核的小组用户们可没有那么开心,极端的人,给版主们发去一条又一条的辱骂和威胁信息。

    在Engaget和 Point发起的联合报道中,他们找到了10个Reddit版主。版主们管理着大大小小的小组,最大的达1600多万订阅者。但无论小组大小,他们的困境都是相似的,被辱骂、攻击、人肉、诅咒甚至死亡威胁,而Reddit官方,一次又一次忽略了版主们提交的被攻击报告。

    版主Emily管理着“伦敦”小组和“新闻”小组,为了避免极端报复,她从来不暴露自己的性别,以免有人威胁“强奸她”。还有一些攻击和威胁,描述得具象又恐怖,让人光看文字就会起一身鸡皮疙瘩。

    牛津大学实验心理学副教授Lucy Bowes认为,长时间的版主工作必然导致抑郁症、PTSD和焦虑症等精神疾病,工作时间越长,患病危险越高。

    对于Reddit这样的社区来说,技术监管和人力监管不到位,内容过于野生是一大原因。但与此同时,注册机制过于松散,导致恶意账号删不尽,喷子们随便用一个邮箱又可以注册回归。即便是禁言72小时,用户被解禁后还是会继续攻击。

    而Lucy认为,对于Reddit这样体量的公司而言,要解决版主们的问题,应该从公司自身入手,比如对新版主进行培训,加强汇报反应机制的建设,或是截屏留取证据,以确保未来起诉。另一方面,对于这些志愿者,Reddit也应该随时关注他们的心理健康,及时进行干预和治疗。

    尽管体量大,提供咨询的话会增加不少成本,但对于一个依靠一个个小组支撑起来的庞大社区而言,这些愿意资源维持社区秩序的人才是Reddit的财富。

    事实核查员:真相的代价

    在巴西,一份299页的文件在WhatsApp的右翼群里疯转,里面有40名事实核查员的社交媒体详细资料。巴西网友视奸他们所有人的账号:看,这是他2011年发的贴,他就是一个左派分子。

    这一切,只是源自于事实核查组织Agência Lupa和Aos Fatos在今年5月宣布的计划:与Facebook合作,做好今年10月的总统大选辟谣工作。事实核查员们将手动辨别信息流中的假新闻,并打上“Fake”标识,将假消息的影响力降低80%。

    但打击也由此开始。

    先是大V和右翼媒体发文指责,事实核查员的工作是做“信息审查”,后又有人画了幅漫画,把事实核查员画成了投资人乔治·索罗斯的宠物,在WhatsApp门口巡视。

    接下来是死亡威胁。有人给Lupa的总监Tardáguila发信息“你看不到巴西的下一任总统”、“我们会挨个来收拾你”……

    这并非孤例。事实上,同Facebook合作的34个事实核查组织都受到了网络谩骂、人肉等威胁,这对他们的工作造成了很大困难,尤其在媒体信任度本就不高的国家。

    事实核查的进展并没有那么顺利,一是利益相关方和一些网民在疯狂打击,二是在Facebook方面,他们并没有对这34个事实核查项目投入足够的资源,甚至在态度上都不够强硬和坚定。

    在巴西,Facebook从未就此次事实核查项目召开新闻发布会,反复要求的热线和邮件也迟迟没有开通,唯一有的,只是在今年5月发布了两条博文,一是承认网络暴力确有其事并谴责有关行为,二是宣布和巴西、墨西哥和哥伦比亚的事实核查项目的合作。

    在Tardáguila看来,Facebook需要明白,这是他们的项目,公司必须要发声,“我们努力了三年,没有任何改变,这些改变必须由Facebook来承担”。为此,她也提出了一些切实可行的合作条例:

    关于需要被核查的内容,平台需要更好地翻译相关通知。

    Facebook方开通热线或邮件地址,用户和媒体可以询问事实核查项目的相关问题。

    在每个国家建立和事实核查员的主要沟通渠道。

    对Facebook的事实检查项目运作流程进行可视化,翻译至现有的合作国家。

    定期与事实核查合作伙伴开会,了解项目进展情况。

    合作伙伴经理:与170个编辑室共同产出

    ProPublica在2016年推出了有史以来规模最大的新闻众包项目Electionland 2016,和全国大小媒体合作,以任务分派的形式合作完成大选报道。报道覆盖范围广,参与媒体多,资源利用率高。随后,ProPublica试着开了新的项目,也由此诞生了一个新的职位。

    新项目名为Documenting Hate,一个追踪和报道仇恨犯罪和偏见事件的调查项目。新的职业则是合作伙伴经理(partner manager),目前由记者Rachel Glickhouse担任。她像一个统筹者,同时担任记者、编辑、研究员、社交媒体制片人、招聘、培训和项目经理。

    Documenting Hate官方网站

    通过合作伙伴经理的努力,Documenting Hate项目和150家国家/本地媒体,以及20家高校媒体建立起合作关系。项目的关键在于资源共享和合作报道,ProPublica搜集到的仇恨事件案例和数据都被统一上传到官方数据库保管,并向加入的媒体开放使用,比如公众提供的线索和故事、警方的案卷信息,真正实现了资源上的共享和合作。

    与此同时,合作伙伴经理也会担任起“空中管制调解员”的作用,确保不同记者不会在一个事件上耗费精力,或是针对不同当事人,指派合适的记者跟进。

    虽然类似Documenting Hate这样的新闻众包项目有利于报道资源的合理分配,但合作伙伴经理也面临着不小的挑战。加入项目的记者可能无法彼此合作,也可能有等级倾轧,又或者,记者们对项目的热情有一定的周期性,有的可能无法长期为这个项目效力,而在一些特殊时期,参与者会少得可怜。

    尽管如此,在Rachel看来,众包模式依然会是未来新闻的发展方向之一,在编辑室的时间和资金都非常稀缺的时代,有一个中心化的项目聚合资源并进行再分配,自然能极大程度上缓解编辑室所面临的尴尬。

    互联网浪潮下诞生的新职位固然有其局限性和困境,但菲律宾事实核查项目Vera Files的联合创始人Chua认为,类似于事实核查员遭遇网络暴力的事件,Facebook固然有保护事实核查员的责任,但如果Facebook无法保护他们,那记者必须自我保护,“新闻业有风险,事实核查同样如此。”身为大时代下的小个体,我们能做的,不过是催促科技公司解决眼下的问题,让个人迅速跟上这滚滚向前的历史车轮。

    【参考资料】

    FB内容审查员患PTSD

    //www.businessinsider.com/content-moderator-sues-facebook-ptsd-2018-9

    社交网站上不为人知的隐匿职业:信息“擦洗工”-钛媒体官方网站 tmtpost.com

    //www.theguardian.com/technology/2017/jan/11/microsoft-employees-child-abuse-lawsuit-ptsd

    真相的代价:事实核查员遭到的威胁与攻击

    //www.poynter.org/news/these-fact-checkers-were-attacked-online-after-partnering-facebook

    Reddit讨论区审核管理员遭仇恨言论攻击

    //www.engadget.com/2018/08/31/reddit-moderators-speak-out/

    新闻业的最新职位 - 合作伙伴经理 -如何在ProPublica的新闻编辑室工作

    http://www.niemanlab.org/2018/10/chasing-leads-and-herding-cats-how-journalisms-latest-job-title-partner-manager-works-in-propublicas-newsroom/

     2 ) 我们能看到的互联网世界是经过了他们修剪的,而他们赚1美元的时薪

    这部纪录片真的非常值得看完了之后进行深思:

    我仅敢列出以下的几个点供大家思考,而不敢自己妄下结论。

    1.网络SC员通常被外包给第三世界国家的员工,差不多时薪为1美元。

    2.长期成为网络SC员,精神上会受到长期的负面影响,因为黄色和暴力信息长期影响人体的身体健康。有的人为此而患上严重的精神疾病。有的人甚至宁愿捡真实世界的垃圾,也不愿意再干这个活。

    3.如何鉴别信息不良不止是一个法律问题,有的时候还涉及到哲学上的争辩,比如电影中提到的例子:萨达姆被杀的过程与萨达姆尸体的影像之间的区别。

    4.即使专家有的时候也很难做出选择,而这些审查员每天则要做出25000次选择,而其中如果漏判3次的话,就会失去工作。影响他们的是数量和绩效。 这是否导致SC员都会趋向于保守呢?

    5.实际上我们现在看到的互联网就是,网络SC整理干净之后的互联网。而真正完整的互联网,可能只有审查员看到了。

    6.我们也在用自己的键盘塑造着互联网。

    7.互联网公司在各别国家和地区,可能要与这些政府达成协议的话,这样的行为究竟是该被定义为一个影响言论自由还是仅仅只是遵守当地法律的行为呢?这个问题本身还是很值得深思。(顺便提到,The Good Fight S03E08中就出现了一个例子,有一个律师就是利用好了这个争论,从而能够从互联网巨头身上敲上很大一笔竹杠,当然他并不是为了真的将这个话题在法庭上能够进行准确定义,而是为了能够对这个话题进行争论,并且利用媒体的报道对互联网公司进行公关方面的巨大压力,从而能够获得大笔的赔偿金。)

     3 ) 科技确实存在偏见,偏见就是它实际追求的一个目标,那个目标就是什么才能得到最多人的关注,什么才能吸引数十亿人

    内容审查员就像是一名狙击手,我们的目标是违反应用程式规定的用户。 我妈妈总是告诉我,如果不好好读书,就只能跟她一样当个拾荒者,他们依赖捡垃圾为生,这是他们唯一知道的谋生方式。我害怕自己将来只能留下来跟着捡垃圾,这也是促使我用功念书的一个原因。 2016年1月,我画了一张男性器官很小的川普画像,叫做“让美国再次伟大”,它立刻爆红,数百万人在许多社群平台上疯传,几天后川普在竞选辩论中提到自己的器官尺寸,我记得有朋友打电话告诉我说,是你让川普在辩论中透露他的器官大小吗。 作为内容审查员,你必须要有原则,是你在决定人们是否该看到某张图片,所以头号重大错误就是批准裸照、 和女性胸部、男性器官,这没有容忍的余地。 一个虚构的作品,它并不暴力,也无关性爱,它只是一个人的裸体配上川普的脸,不懂为何人们会觉得人的裸体这么恶心。 这工作真的不好做,但最后却成了带罪恶感的乐趣,感到罪恶是因为我居然在看这样的东西,乐趣是因为我现在很享受看到的内容。 脸书基本上就是一家科技公司,有许多工程师经营,它重视自家产品,重视公司设施,它重视发展规模,重视用户体验,但它不是一家媒体公司,它不会考虑到内容或内容创作,或是内容编辑和审查的事,这些事并不在它的基因里面,只要脸书碰到有人说,“嘿,你们要为这内容负责的时候,他们的答复会是,‘哦,我们只是搞数学的,我们只负责写演算法,去提供你们想要的东西,我们不干涉编辑’”,但政治现实是在川普之后,在英国脱欧之后,这样的说法已经不行了,我们现在在一个点上,只要大众不接受现状,在某些点上政府就会立马介入,我认为脸书是了解这情况的。 YouTuBe一直希望能够跨越国界,因此从2007年左右,我们遭遇许多被封锁的情况,当土耳其政府不知如何与你取得联系时,他们索性关闭你在该国的服务。我们花了一段时间才弄清楚,是什么令他们感到不舒服,我们最后终于设法掌握了令他们不开心的特定影片,其中有些是关于凯末尔,有些则是他们声称违反土耳其法律的恐怖主义影片。我记得有一天我在凌晨两点,审查令土耳其政府感到不快的67个影片,从中做出哪些应该删除,哪些应该留下的决定,有个重点是对于一些影片来说,它们其实没有违反社群准则,所以一般不会从平台移除,可是却触犯了土耳其的法律,所以我们决定对土耳其用户采取IP位置封锁,土耳其用户将无法看到这些影片,我不喜欢这种解决方式,但这就是我们的做法。 街上聚集了许多了不起的人,警方在这里部署的人数相当多,我很好奇他们会在这里待多久,因为我知道只要他们一撤离,人们就会开始干架。 一些左派人士认为你政治不正确,我们这群人拥有枪支、子弹,受过训练,只要我们开始开枪射杀,我相信所有的赃东西很快就会消失。 人性归人性,而科技就只是种中性工具,并没有助长任何东西,但事实并非如此,因为科技确实存在偏见,偏见就是它实际追求的一个目标,那个目标就是什么才能得到最多人的关注,什么才能吸引数十亿人,成功转移他们的注意力,并且保持下去。 这项工作会损害你的大脑,让你觉得暴力是正常的,让你认为杀人,轰炸是正常的。 我不能让影片影响你,但这因人而异,有些人就是会受到画面的影响。 我突然自己,为什么要做这份工作,只是为了让人们认为上网是安全的,事实上在你的日常工作中,上处都是危险,我们在奴役自己,我们应该从麻木中觉醒,因为这并不安全,我们应该正视现实。 选择希望而非恐惧这需要勇气,期许我们可以建立比过去更加良好的环境,你必须乐观的认为你可以改变世界,我们投身其中,每一次都是一种联系,每一次都是一种创新,日复一日,日复一日,这就是为什么我认为我们一起投入的工作,现阶段比以往任何时候都重要。

     4 ) 我发在网上的大尺度图片,原来是他们删的

    我们还上不了脸书呢

    上周,我找到了一张《感官世界》的稀有海报,想把它发布在微博上。

    可是,怎么都发布不出来,关键是这张图片并没有露点。

    既然不能在微博上发布,那我是不打算在文章里贴出这张海报了。

    你们也别去豆瓣上找了,没有,我也没有上传的计划。

    当然,写这些不是为了显摆我发掘海报的能力。

    我是对于微博上对于图片是如何审核的机制比较好奇。

    大家应该有过这种经验,发布在微博上、豆瓣上、B站上、百度贴吧上的内容被删的情况。

    不管是因为人工审查,亦或是因为别人举报。

    困惑、震惊、愤怒,“为什么删我的东西,我发的内容没什么违规啊”,这应该是大家的第一反应。

    我除了好奇这些审查机制外,更好奇这些机制背后的人。

    也就是这些网络审查员。

    《网络审查员》

    先把时针拨回到2013年3月23日,在脸书上有一条视频,视频的内容是关于儿童性暴力。

    在视频下架之前,它已经有了超过4000次的分享,以及数不清的评论。

    这条视频引起了导演汉斯·布洛克和莫里茨·赖斯维克的关注。

    为什么这种事情会发生?为什么这些网站没有及时地进行处理?

    这个就是《网络审查员》的缘起。

    01

    这是一群隐形的人

    菲律宾,马尼拉,一间办公室。

    经常传出“忽略”、“忽略”、“删除”、“删除”的声音。

    坐在电脑前的人目不转睛地盯着屏幕上频频闪过的图片、视频。

    这些图片与视频包含着大量暴力、血腥、色情的讯息。

    他们就是谷歌、推特、脸书等社交媒体雇佣的网络审查员。

    上面就是这些网络审查员的日常工作。

    他们的工作不能对外讲,甚至连工作本身都是秘密。

    他们看似是为互联网三巨头工作,实际上,他们所在的公司只是外包公司,他们的工资也是由外包公司来发。

    每天有2万5千个指标,意思就是他们要删除2万5千条不良信息,每一天。

    想想一下让一个普通人每天看虐杀、色情、暴力,他会变成什么样。

    但是这些审查员必须要看,因为这是他们每月的KPI指标。

    他们可以选择跳过一些引起他们不适的视频,如果被发现业务评分就会扣分,他们每个月只有三次的机会。

    他们家境的贫穷也不允许他们放弃工作的机会。

    要么读书,要么捡垃圾,对于来自社会贫困阶层的他们而言,选择就是如此残酷、简单。

    每天都要穿过垃圾山、趟过垃圾海去上班,他们有一家子要养,他们必须珍惜工作的机会。

    她,在审查期间看过一个儿童性暴力的视频,让她震惊不已。

    她很痛苦,但却不能辞职,因为她签了约,只能硬着头皮接着干。

    虽然杜特尔特政府宣称,从2018到2022年,菲律宾经济规模要扩大50%,并要迈入中高等收入国家的行列,但是菲律宾的贫富差距依然悬殊。

    富人吃肉,穷人吃土。

    这些来此贫困村庄的审查员们,咬着牙也想挺过来。

    有些情况,并不是咬牙挺一挺就能解决的。

    其实几年前,我就看过一篇关于推特公司审查员心理健康问题的外文文章。

    文章就讲,这些审查员工作了几个月之后,都要接受心理辅导。

    就像片中出境的几位工作人员。

    在直面人性丑恶之后,他们的心理健康状况都很糟糕。

    她,每天都要接触大量的色情视频。为了判断一个视频是忽略还是删除,她必须了解各种性方面的术语。

    她在家看了大量的A片,还经常去逛性用品店,每晚都会做各种丁丁的梦。

    用她的话讲,既有罪恶感,也有羞羞的快感,甚至还看上了瘾。

    一个清纯少女就这样变成了一个老司机。

    她这种情况还算轻的。

    他,看过几百遍斩首视频。

    次数多到,仅仅凭着尸体身上的切口,他就知道尸体是用小刀割的,还是大刀砍的。

    麻木,看到了麻木。

    当麻木累积到阈值的时候,就是他们崩溃的时候。

    片中一位审查员,生前是负责审查自残视频,看过了数不清的自虐视频后,在家上吊自杀了。

    没有人关心他们的心理健康。

    02

    审查的标准是什么

    关于网络内容的审查本身就是一个悖论,如何在追求言论自由的前提下,又能保证言论的自由不会危及到我们自身。

    这世界上没有一个人不想追求言论自由,但是要付出的代价呢,怎么办?

    单单靠我们自身的批判性思维,举世浑浊唯我独清,众人皆醉唯我独醒?

    戴维·凯伊,联合国言论自由特别报告员是这么说的。

    他觉得对于言论自由设限,会导致民众获得越来越少的信息,以至于尖锐意见会从网络上销声匿迹。

    那为什么现在网络暴力越来越严重,互相仇视的情绪越来越高涨。

    这问题到底是出在谁的身上,真的是这些社交平台监管不力,是我们被这些社交平台诱导?

    答案是非常复杂的。

    对么?对,但是这个对也有预设条件。

    什么问题都不可能只有A与B两个面,我们也不能也二元论来看待问题。

    一个平台该如何判断该如何审查一张图片、一段视频。

    一个平台认为是危险的消息,在另一个平台可能认为其具有新闻价值。

    黄安娜,前谷歌/推特法律负责人举了一个例子。

    萨达姆在被处决的时候,有人把视频发到了油管上,网上一共有两段视频,一段是萨达姆被处以绞刑的视频,一段是萨达姆的尸体。

    这样一来,就要决定到底是该留哪一段视频,他们最后选择了萨达姆被绞刑的视频,因为这段视频具有历史价值。

    而这样就带来一个问题,如果审查员不知道图片、视频的背景信息,该如何决定是该忽略还是删除。

    审查员因为不知道背景消息误删的情况,也很常见。

    不仅仅是这样,每个平台都要自己的标准。

    像下面这张越战的著名照片。

    它就因为涉及了未成年裸露而不符合规定。

    对于这些审查员来说,最严重的的失误,就是疏漏裸体内容。

    03

    到底为谁所用

    就算一个审查员每天能处理25万条违规信息,但是每天脸书、推特上还是会有海量的信息流出现。

    再说,不论是人工智能识别还是人工识别,这种机制都是被动的。

    社交媒体是带来了恶,还是引爆了恶?

    每个人使用社交平台的目的各不相同。

    美国艺术家伊尔玛·戈尔画过一张特朗普的裸体画,并把它放在了自己的脸书上。

    引发了网络上的广泛讨论。

    甚至特朗普本人都在白宫发言的时候,都讨论过自己的尺寸没有那么小。

    现在的社交媒体已经可以强大到可以干预到国家领导人的发言。

    NGO的成员,会在网络上收集视频,在视频被删除之前,先把视频保存下来。

    对于他们来说,存档非常重要。

    他们把这些视频收集起来后,发布在油管上。

    他们用这方式记录战争,以此来让人了解战争的残酷,从而达到反战的目的。

    来自叙利亚的艺术家,会把自己的创作放在脸书上,表达自己的政治观点。

    美国右翼活动家,在社交平台上发表对于难民问题的观点,一口一个绿绿、臭大粪。

    也会在游行示威上做直播,表达自己对于左派的不懈。

    现在的言论自由已经被曲解了,人人都相信自己认为的真相。

    就像片中提到的,自从特朗普上台以后,美国政治两极化日趋严重,左派与右派都不愿意对话。

    这么一来,罪魁祸首就是脸书?是脸书有意识地发挥了推波助澜的作用?

    没人能够回答。

    最后就用脸书创始人扎克伯格在一次发布会上说过的一段话做结吧。

    选择希望、克服恐惧,需要有勇气。

    说我们能做出前所未有更好的东西。

    要想改变世界必须保持乐观。

    每一次我们连接网络、每一次创新,日复一日前进一小步。

    所以我认为我们的共同努力比任何时候都重要。

    - FIN -

    公众号:小鲜电影(xiaoxianmovie)

     5 ) 看到了审查员这样一群人

    应该让世人知道,有审查员这样一群人在工作。他们依照规定审核发布的内容,确保社交媒体的安全。

    Ignore, Delete, Ignore, Delete ...... 这便是审查员的日常。

    应该让世人知道,有审查员这样一群人在工作。他们依照规定审核发布的内容,确保社交媒体的安全。

    员工的角度

    开篇从员工的角度开始,员工感觉这工作是网络世界的安保人员,维护网络世界里面的秩序,避免有害内容传播。

    员工都在菲律宾的马尼拉,这些就业让很多人脱离了以捡垃圾为生的困境,担当起家庭开支的重任。

    工作强度有多大,每天的指标是 2.5 万个审核。那些员工可能没有开玩笑,可能真的会破吉尼斯纪录。

    员工接触的内容有些哪些?儿童性交,暴力血腥,污蔑政治等内容。这些内容慢慢侵蚀人的头脑,审查员的心智感觉迟早会出问题。

    平台的角度

    平台角度,什么是不合适的内容?很难筛选。因为即便是由人来筛选甄别,也很难做好,别说是程序了。但平台是一定要承担这份社会责任的,有义务维护平台上内容的健康性。

    为维护的工作上,也很难做好。平台会针对性地删除和屏蔽一些内容。Facebook 听从土耳其政府的要求,删除政治性言论、图片和视频。这个维护是不是过头了?

    有的视频并不违反社交媒体平台的规定,不属于删除对象,但在土耳其被定为违法视频。对于这种情况,社交媒体平台的解决方法是根据 IP 来屏蔽土耳其的用户。

    平台让言论传播更快速,言论自由便有遇到对立观点的情况,现实情况是,情况没有因此而促进双方的理解,反而激发矛盾。这种事情也怪平台吗?但平台确实有责任遏制散播仇恨。

    其他的角度

    从媒体的角度来看,像叙利亚处于战争的国家,很多血腥的图片或者视频,想引发社会的关注,但是也会被审核删除。

    审查员的身心健康

    审查员每天都在看这些充满暴力、血腥、仇恨、色情的视频,他们的身心健康,公司会保障吗?如果审查员跳过这些视频,这与公司的制度相违背,会有扣减业务分数的惩罚。确实有出现过,部分审查员由于受到每天看的视频的影响,在家上吊自杀。

     6 ) The cleaners 台词摘录

    delete... ignore...

    That's the two actions that a content moderator does every day.

    "I protect the user who uses the app", said one of the moderators, as the president tried to protect his people by killing all the criminals.

    "One of the misconceptions is that human nature is human nature, and then technologies are just useful tools: it's not amplifying anything - but this is not true, because technology does have a bias, and that bias has a goal, it's actually seeking a goal, it's the goal it's seeking that what will get the most number of people's attention, what tends to work on billions of people that's successfully attracting their attention out of that, and keep it; and not just getting their attention but getting them to share things, and so it turns out that our rage is actually good at doing so"(Cleaners, 2018, 1h6m).

    “I sacrifice myself, yes, there will always be sacrifices, it will always be a part of life... it's my job to prevent the sinful images, I'm a preventer“(1h21m)

     7 ) 网络分裂人人有份

    网络审查员的任务,是监视社交媒体上的发布内容,并做出合理化处理,包括防止儿童色情物扩散,觉察恐怖活动于未然,防止网络欺凌等,自动程序所无法完成的工作。

    他们每天的处理指标是25000个,这意味着一天单击鼠标25000次。由于这份工作存在的本身就是秘密,作为社交媒体的清洁工,他们都要签署保密协议,不得向家人和朋友透露任何与工作相关的信息。

    片子呈现了来自网络审查员,众议院、参议院对谷歌、脸书的听证会,前谷歌、推特法律负责人,大学教授,被删帖封号的艺术家,联合国言论自由特别报告员,记者,前脸书项目经理,前谷歌设计伦理负责人等多个角度的声音,

    一个不得不面对的事实就是,社交媒体,确实加剧了人群的分化。精准的数据算法,只显示自己感兴趣的内容,屏蔽不想看到的内容,从人人都有发表自己意见的权利,慢慢演变成人人都只相信自己看到的才是真相。一次又一次的网络热点事件,反复证明一件事,没有基于共同事实认知的理性对话,只有不同阵营发泄情绪的对战。

    20世纪我们关于世界的认知,正在被21世纪复杂的计算机算法重新编写,社交媒体的产品属性,决定了它为了存活下去,必须尽可能吸引更多人的注意,并设法不让他们厌倦,一个针对人性弱点,不断刷新认知底线的,充满戾气的,煽动对立,制造愤怒和恐怖情绪的平台,肯定比处处设限的平台能吸引更多用户的关注。

    我们的个人喜好,决定了网络社会的变化和走向。没有人是孤岛,所以,今日的分裂局面,每个网民都有份。

     短评

    你好,你发表的关于《The Cleaners》的短评,因为含有违反相关法律法规或管理规定的内容,已被移除。感谢你的理解与支持。——豆瓣电影

    3分钟前
    • 朝阳区妻夫木聪
    • 还行

    一部片顶十季《黑镜》,而且与当下联系更紧密,讨论的核心仍处在on-going状态,没有人知道之后会发生什么改变。手法无甚高明,但贵在争议的提出和创作者的态度,毕竟很多难题并不可能也并不应当由这部纪录片来回答。

    5分钟前
    • Lycidas
    • 力荐

    ① 网络审查的存在是必要的,如同现实生活中的质检、保洁和垃圾分类等工种;但对「垃圾」、「有害」的标准界定是模糊的;② 人与人之间的道德标准、族群与族群之间的习俗观念、国与国之间的法律政策都是存在差异,而遍及全球的社交网络平台必然无法普适所有地区人民;③ 平台工具的中立属性,与吸引点击的传播逻辑,形成天然矛盾;④ 国家和联合国都难以解决的矛盾争端,居然需要距离事发千里之外、月入几千元的审查员做出判断,真心无奈。

    6分钟前
    • 十一伏特
    • 力荐

    引人深思。同样的内容在不同的语境下是不一样的,讽刺或者谴责是不是就可以?(实际工作中真的就遇到这样的情况啊)提供一个“干净”的环境是不是就不利于理性批判呢?非常不爽的是,这样一个“国际纪录片节”竟然放个样片给我看,中间字幕还因为剪辑版而字幕对应不上。

    11分钟前
    • vivi
    • 推荐

    常在河边走哪能不湿鞋

    13分钟前
    • 推荐

    特别严肃、深沉、拓展视野和引人熟思的一部纪录片。新网络时代社交媒体在左右我们的思维动向,可怕的是它利用我们的潜意识,就在我们毫无意识之间替我们决定了一切。而被牺牲的网络审查员,真的新时代最悲伤职业。

    18分钟前
    • L.C.
    • 力荐

    清道夫不是人干的活。每天看各种黄色暴力血腥视频,有害身心。审查员有自杀的,也有宁愿回去捡垃圾,也不再看那些网络垃圾。

    22分钟前
    • 伊壁鸠鲁
    • 推荐

    这群为了网络的健康与和谐默默付出的人们,难以想象他们每天要面对多少充满血腥、暴力、色情以及政治恐怖的镜头。他们目睹过自杀,目睹过砍头,目睹过性侵,出现一点小小的纰漏都可能会造成死伤甚至战争,他们在不为人知的地方守护着世界的和平

    23分钟前
    • greenjoker
    • 力荐

    設計的場面和台詞過多,集中於弘大命題而遠離了作為網絡審查者的“人”。始終陷在一種美感過度的不適中。講演現場等視頻的活用很好。“被審查”的部分影像,那些自殺情色宗教與恐怖暴力,除了展示,真的沒有更好的方式了嗎?對影像資料的處理和使用,需要倫理上的再思考。JIFF0507M9

    27分钟前
    • 看守煙霧的人
    • 还行

    看到扎克伯格意气风发的脸,就像是这个世界真正的领导者一样。可怕的是竟然还有人把自己和国家的人民与希特勒和被屠杀的犹太人类比,渺小无力的我们只能对着社交媒体冒泡。

    30分钟前
    • 噼里啪啦
    • 推荐

    看!这盛世,时代之恶,我在这儿先糊你脸上为敬。

    31分钟前
    • 朱马查
    • 推荐

    一部上影节北影节选片首轮一定被毙的纪录片出现在即将被迫全面退票转为免费包场的西宁,来自一个全球最大的被清理者组成的国度。

    34分钟前
    • 黑狗成
    • 推荐

    当影像创作紧紧地与道德与立场捆绑,纪录片本身也跳脱开单纯的新闻属性,质问甚至鞭挞所有人习以为常的伦理框架。从网络清道夫,到社交媒体时代的仇恨传播,一块荧幕前后是监控的过犹不及,和话语的无孔不入。信息量大,有些话题点到即止,拍的精细完整,但再做扩充也无妨。

    39分钟前
    • 鸡头井。
    • 还行

    发人深思的优秀纪录片,不能忽视的人群——网路清道夫

    40分钟前
    • 妮可妍妍
    • 力荐

    脸书YouTube推特上,内容合法不合法,是让一群外包的菲律宾人来审查。难怪影片中,故意让审查员看两张照片,一张是获普利策奖的越战照片《火从天降》,因为小女孩全身赤裸,被删;另一张,伊战美军虐囚事件,审查员看成了ISIS士兵在虐美军俘虏,被删。

    42分钟前
    • bugz
    • 力荐

    不涉及处在局域网的我们,主要介绍采访不存在的欧美几大上传类社交网站的图片视频的人工审查员,他们居然都是在菲律宾的当地人,每天面对两万多件的色情暴力政治战争等敏感信息。梦到大量不同男人生殖器的女基督徒,还有的看过上百段斩首的影像,在自残部门调离不成而自杀的员工,叙利亚老百姓拍摄的那些和isis的如何处理,开放网络后只识脸书的缅甸人被假消息散播利用挑起的大屠杀,最后现身的扎克伯格发布会好像把矛头直指大公司在建立自由之地的同时今后要怎么走向,穿插在美国被诉讼而改变准则的几次事件,对了解那些人背后的操作程序和世界阴暗面有不少直观的感受,联想在高墙之内被保护的这片土地更加唏嘘。

    47分钟前
    • seabisuit
    • 推荐

    “Delete, delete... Ignore, ignore”,以网络世界不为人注意的审查过滤工作展开,用Google和FB做引子,到最后拉开成了对极右思潮的兴起、政治讽刺的界限还有中东和罗兴亚人的全面涉及,88分钟里满满的信息量和各种立场。勾勒了网络世界近年来除去深网、色情交易和信息安全之外最严峻的现状。无法想象各位清道夫需要在工作中承受多少压力与伤害,才能换得一份维持温饱的工作;女孩穿行于垃圾堆的画面映照,十分加分。

    51分钟前
    • 基瑞尔
    • 推荐

    很有意思的视角,第三世界廉价审查员,被剥削的不只是重复性劳动,还被迫承受了最为骇人听闻的精神暴力。后半部分上升到社交媒体就比较泛泛而谈了,无非是民主和民粹的讨论,作者立场也过于明显。这部电影本质还是猎奇,但也只有冲击力和未知能引发思考。

    55分钟前
    • 阿暖
    • 还行

    索爾仁尼琴說過“每個人有不知情的權利”,但是人又卻是好奇和獵奇。前幾年Dark Net第一季的其中一集就對網絡審查員有過展現。感覺這部紀錄片是擴展版,而且選取的事例頗具典型性。我依然覺得對於互聯網(尤其是移動互聯網)要採取謹慎甚至消極的態度。整個片最讓我印象深刻的是NGO組織對敘利亞內戰的社交網絡視頻爭分奪秒的保存。畢竟,很多視頻基於版權和審查已經無法被觀看,而本身又具備價值。其實,“知道太多”的審查員和違規視頻圖文資料庫同樣是個不穩定的危險因素。難道就不怕造反嗎?

    58分钟前
    • 熊仔俠
    • 推荐

    审查;还以为是日本人做的,原来是德国人;色情delete,战争暴行(宣传恐怖delete,反战ignore)但作为网络守望者的这部分菲律宾人不可能了解那个背景不好判断,忽略的害处:罗兴亚人的迫害,稀疏的言论自由:人里面不成熟、容易受恶影响的还是不少的,审查是一种偷懒的方式,人类就不用自己费劲去判断了,政治言论:油管的仅对该国ip屏蔽,也算厚道,那为啥我们不行?(大概扶植本国经济吧,也能偷懒,毕竟自己人好管);审查员自己的影响,每天看这些势必有影响(发条橙);网络使全球人心的共通,对于审查员更明显;言论自由观点(我的):事物都有丑恶一面,如果你没看到,说明你还不了解它;人总是需要假象的敌人(鄙视对象),外国移民、CXK。

    1小时前
    • 马828
    • 力荐

    Copyright © 2023 All Rights Reserved

    电影

    电视剧

    动漫

    综艺