中文站
  • 机器眼中的《爱,死亡和机器人》黄暴场面_网易易盾

    让我们从人工智能图像识别模型(机器)的视角,一探剧中赛博朋克、性爱、恐怖和暗黑暴力等成人元素的全貌。机器眼中的《爱,死亡和机器人》黄暴场面

    来自:动态资讯
  • 知物由学 | 只要5行代码,就可以实现AI图像识别_网易易盾

    在这篇文章中,我们将简要介绍人工智能领域,特别是计算机视觉领域中遇到的挑战,这些挑战的现有解决方法以及如何快捷地使用这些方法。知物由学 | 只要5行代码,就可以实现AI图像识别

    来自:动态资讯
  • Question | 标注下数据、训练个模型,商用的智能鉴黄有这么简单吗?_网易易盾

    “Question”为网易易盾的问答栏目,将会解答和呈现安全领域大家常见的问题和困惑。如果你有什么疑惑,也欢迎通过邮件(zhangyong02@corp.netease.com)提问。Question | 标注下数据、训练个模型,商用的智能鉴黄有这么简单吗?

    来自:动态资讯
  • 智能鉴黄原理是什么?人工智能鉴黄靠谱吗?_网易易盾

    智能鉴黄作为内容安全的核心诉求,一直以来吸引着学术圈的无数攻坚者来挑战,如同深度学习入门容易精通难,智能鉴黄领域也会出现从入门到放弃的过程。本文以网易易盾的智能鉴黄产品为例,从算法层面介绍智能鉴黄的原智能鉴黄原理是什么?人工智能鉴黄靠谱吗?

    来自:动态资讯
  • 鉴黄智能识别的工作原理是什么?_网易易盾

    人工智能鉴黄是通过深度学习目标检测、图像分类、特征检索等技术对图像中的局部和全局信息进行分析,捕获不同类型的色情内容,此外系统还会通过OCR、标志识别、水印检测等技术手段协助判断隐藏的敏感内容。鉴黄智能识别的工作原理是什么?

    来自:动态资讯
  • 怎么实现图片鉴黄?_网易易盾

    早期的图片鉴黄大部分是简单粗暴的人工审核,是劳动密集型工种。但是随着图像数量的增加,人工审核成本越来越高,因此采用机器+人工的方式鉴黄就成为了主流。机器识别效果越好,人工审核成本越低。怎么实现图片鉴黄?

    来自:动态资讯
  • 构建全链路内容风控体系 解决内容安全难题_网易易盾

    内容安全已成为全球性互联网生态治理难题。多媒体内容爆发带来海量信息的同时,也泥沙俱下裹挟有大量不良有害信息。本文将重点分析内容安全治理现状、治理的难点以及什么样的内容安全体系才符合当下的治理要求。构建全链路内容风控体系 解决内容安全难题

    来自:动态资讯
  • 内容审核,靠人工还是靠机器?_网易易盾

    互联网的UGC内容审查方向均在走向人工强干预,真正靠AI审核内容可能还需要5-10年的窗口期。各类音视频、社交平台只有坚持以正确的价值观引导人工审核,辅之以机器协助,才能真正将自己的社会责任落到实处。内容审核,靠人工还是靠机器?

    来自:动态资讯
  • 社交App如何进行敏感词、违禁词检测过滤?_网易易盾

    移动互联网加速了社交产品的发展。用户量激增伴随的垃圾信息问题也随之而来,涉政敏感词、违禁词、垃圾广告、色情、血腥暴力等不良信息降低了用户体验,不利于产品健康发展。因此社交APP反垃圾非常重要。社交App如何进行敏感词、违禁词检测过滤?

    来自:动态资讯
  • 与鉴黄师同行,不同行业从业者有话说_网易易盾

    鉴黄师虽然不是那么伟大与神圣的职业,甚至是一份有些复杂且劳心又劳力的工作。但是,绿色健康的互联网环境离不开替我们阻挡黑暗与罪恶的“卫士”们,希望此次体验活动让大家对“鉴黄师”这个职位有更多的正确理解。与鉴黄师同行,不同行业从业者有话说

    来自:动态资讯