学习
实践
活动
专区
工具
TVP
写文章

爬虫系列:爬虫所带来道德风险与法律责任

国内外关于网络数据保护法律法规都在不断制定与完善中,这篇文章主要从道德风险和法律责任两方面来分析爬虫做数据采集所带来问题道德层面: 网络爬虫如果不严格控制网络采集速度,会对被采集网站服务器造成很重负担。恶意消耗别人网站服务器资源,甚至是拖垮别人网站是一件不道德事情。 这里 CPU 利用率达到100%,用户访问网站表现就是:访问速度非常缓慢,经常刷不出来。 这里是我作为一个站长分享自己被爬虫抓取经历,希望爬虫开发者多站在别人角度考虑问题。 上面说完了道德方面的问题,下面我们再来看看法律方面的责任。 如果一个网站允许公众访问接入,那么网站管理员对软件可以接入什么和不可以接入什么限制是不合理。如果网站管理员对“你用浏览器访问没有问题,但是你用自己写程序访问它就不行”,这就不太靠谱了。

75020
  • 广告
    关闭

    有奖征文丨玩转 Cloud Studio

  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    人工智能道德外包与“黑箱”中算法歧视

    无论如何,算法设计者们是否可以不偏不倚地将既有的法律或者道德规则原封不动地编写进程序,是值得怀疑。规则代码化带来不透明、不准确、不公平、难以审查等问题,需要认真思考和研究。 更重要是,是否可以依据秘密信息以及由此产生犯罪风险分数对犯罪人进行判刑?所有这些问题都需要认真对待,否则利用人工智能系统对犯罪人进行打分、计算刑期等,就可能带来意想不到系统性歧视。 所使用数据模型是否会导致偏见?基于大数据进行预测准确性如何?对大数据依赖是否会导致道德或者公平性问题? ,并提出是否可以让机器代替人类来做道德、法律等判断问题,其实就是公平能否算法化问题。 在政府层面,为了削弱或者避免机器偏见,美国白宫人工智能报告将“理解并解决人工智能道德、法律和社会影响”列入国家人工智能战略,并建议AI从业者和学生都能接受伦理培训。

    3.4K100

    人工智能未来依赖于道德准则

    更重要是,这是一个行动召唤:AI人工智能,我们需要一套道德准则。 随着人工智能革命不断加速,人们正在开发新技术,以解决消费者、企业和整个世界面临种种问题。 这不可避免地会引发许多伦理问题,这些问题将影响深远,影响每个人,包括公民,小型企业利用人工智能或企业家开发最新技术,无人能幸免。 为了让人工智能未来尽可能地可控,我们需要处理一些棘手伦理问题。 无人驾驶汽车道德 随着汽车发明,车祸发生了。同样地,一辆爱车将带来我们必须准备面对道德和商业影响。研究人员和程序员将不得不扪心自问,在自动驾驶汽车中,如何在安全与机动性之间进行取舍。 当我们不能再信任我们新闻来源和社交媒体源时,会发生什么? 人工智能将继续给算法带来重大影响,影响我们在日常生活中看到和看到东西。 为了防止人工智能炒作,并利用它变革性力量,我们必须从伦理道德出发,正确地对待人工智能。当企业家们急于开发最新的人工智能技术或用它来解决关键商业问题时,每个人都有责任去考虑这项技术伦理。

    1.2K10

    人工智能道德影响,究竟该是谁责任?

    马克思对人工智能警告和脸书机器人创造一种让人类无法理解语言,可能就会让人们联想到机器人征服世界画面。 虽然这样说会造成一场灾难,可能会有些牵强,但人工智能后果已经产生了,并且值得人们去关注:人工智能道德问题。 那么,现在就会产生一个新问题:机器能学会道德准则吗? 人类想要同时驾驭科学方法和道德决策这两个领域还是很困难,而更难是让计算机算法能让机器行为符合道德准则。 那么,问题又来了,制造出计算机能够具有一定正直观念吗?是否包含公正理念?是否能学会尊重?对于机器来说,如果存在这种潜力,至少有四个关键问题急需解决: 一.机器能谈论道德问题吗? 值得让人高兴是,人工智能已经对许多人生活产生了影响,我们可以想象,更加先进应用成倍地增加这种积极影响。 在未来,我相信选择正确道德观念将被编码应用到人工智能

    81660

    线程带来问题

    1、安全性问题 安全性含义是“永远不发生糟糕事情”。 线程安全问题主要和同步有关。在没有做好同步情况下,多个线程中操作顺序是不可预测,结果正确性无法保证。 2、活跃性问题 活跃性关注是“某件正确事情最终会发生”。当某个操作无法继续进行下去时,就会发生活跃性问题。 在串行程序中,活跃性问题形式之一就是无限循环。 而在线程中,活跃性问题还包括:死锁、饥饿和活锁。 3、性能问题 性能问题包括多个方面:服务时间过长、响应不灵敏、吞吐率过低、资源消耗过高、可伸缩性较低等。 在多线程程序中,当线程切换时,就会出现上下文切换操作,如果线程之间切换频繁,这种操作将带来极大开销:保存和恢复执行上下文、丢失局部性、CPU时间更多花在线程调度而不是线程执行上。 但线程共享数据时,必须使用同步机制,而这些机制往往会抑制某些编译器优化,使内存缓存区中数据无效,以及增加共享内存总线同步流量。这些因素都将带来额外性能开销。

    31230

    MySQL AutoCommit带来问题

    下面是这个流程时序图: 问题出现在Server A向数据库发起查询时候,返回结果总是空。 问题分析 这个问题显然是一个事务隔离问题,最开始思路是,服务A所在机器,其事务开启时间应该是在服务B机器commit操作之前开启,但是通过DEBUG日志分析connection获取和提交时间 后来调整了一下思路,发现MySQL还有一个特性就是AutoCommit,即默认情况下,MySQL是开启事务,下面表格能说明问题,表1: 但是,如果AutoCommit不是默认开启呢? ; Thread.sleep(5000); } } } 注意我在query方法中加入这一句:conn.setAutoCommit(true); 此时这个问题不再出现 boneCP源码分析 根据实际使用经验看,boneCP连接池在使用过程中并没有出现这个问题,分析boneCPConnection具体实现,发现在close方法具体实现中,有这样一段代码逻辑:

    33410

    消息队列带来问题

    本来你就是 A 系统调用 BCD 三个系统接口就好了,人 ABCD 四个系统好好,没啥问题,你偏加个 MQ 进来,万一 MQ 挂了咋整,MQ 一挂,整套系统崩溃,你不就完了? 如何保证消息队列高可用? 系统复杂度提高 硬生生加个 MQ 进来,你怎么保证消息没有重复消费?怎么处理消息丢失情况?怎么保证消息传递顺序性?头大头大,问题一大堆,痛苦不已。 一致性问题 A 系统处理完了直接返回成功了,人都以为你这个请求就成功了;但是问题是,要是 BCD 三个系统那里,BD 两个系统写库成功了,结果 C 系统写库失败了,咋整?你这数据就不一致了。 所以消息队列实际是一种非常复杂架构,你引入它有很多好处,但是也得针对它带来坏处做各种额外技术方案和架构来规避掉,做好之后,你会发现,妈呀,系统复杂度提升了一个数量级,也许是复杂了 10 倍。 如果是大数据领域实时计算、日志采集等场景,用 Kafka 是业内标准,绝对没问题,社区活跃度很高,绝对不会黄,何况几乎是全世界这个领域事实性规范。

    67920

    牛津人工智能治理手册:工人在人工智能道德和治理中作用

    虽然国家、公司和国际组织在人工智能治理中作用已经被广泛理论化,但工人作用却很少受到关注。本章着眼于工人在识别和减轻人工智能技术带来危害方面所发挥作用。危害是对技术因果“影响”进行评估。 尽管存在技术上可靠性,但它们并不是技术疏忽结果,而是围绕复杂社会系统中安全和公平问题规范性不确定性结果。人工智能伦理界对减少伤害好处有很高共识,但对确定或处理伤害机制共识较少。 工人们利用三种类型主张来论证对人工智能治理问题管辖权:服从、对劳动产品控制,以及对系统近似知识。 回顾过去十年与人工智能相关工人维权活动,我们可以了解不同类型工人在生产人工智能系统工作场所是如何被定位,他们位置如何影响他们主张,以及集体行动在实现他们主张时所处位置。 牛津人工智能治理手册 工人在人工智能道德和治理中作用.pdf

    33700

    关于EventTime所带来问题

    但是在使用EventTime语义中,会出现一些不可预知问题,接下来会介绍笔者在使用过程中遇到一些问题与解决办法。 ,会选择值最小通道watermark值,因此能够解决消费不均匀问题。 数据延时 只要是在Event-Time语义数据流中,就不可避免一个问题:数据延时,通常情况下会设置一个允许数据延时大小,也许你会想将延时设置很大,那么同样带来问题就是增加了处理延时性,对于处理要求实时来说是不可取 ,对于不允许重复合并情况下,在这个过程中又需要考虑数据一致性问题,可以使用Flink提供两阶段提交帮助完成。 以上是笔者在实际中使用EventTime语义情况下遇到几个问题,但是笔者更加建议尽可能去EventTime化,将实时处理语义转换为离线处理语义,例如对于window聚合操作转换为对时间字段聚合操作

    14720

    人工智能+’到来带来了什么??(Ding)

    有人说2016年是VR元年、智能汽车落地年、机器人飞跃之年,但上述三大领域何时能够实现商业化、产业化、规模化等问题,仍没有一个确切答案。 目前,虽然有很多相对廉价设备可以给用户提供VR内容观看浏览体验,但是它也带来一些相应问题人工智能浪潮席卷现代社会,在带来科技便利性同时,不禁使人思考,这些技术究竟是人类“好助手”还是人类“终结者”。 此外,基于深度学习的人工智能未来不仅能为我们解决问题、还可以拯救生命,产生巨大商业和用户价值。比如,自动诊断+基因排序会达到个性化精准医疗、自动交易能得到更高投资回报和并提示风险比例。 但是值得注意是,人工智能逻辑推理能力远超人类,而且没有任何感情因素影响判断,业内认为,AlphaGo这类人工智能”机器真正可能带来危机,不是奴役人类,而是让人类丧失斗志。

    67570

    如何用人工智能破解罗一笑事件道德绑架”困局?

    看着事态发展,人们渐渐嗅到了“道德绑架”味道,对于事件中父亲罗尔及公关公司小铜人,人们更是举起了手中“批判”大旗。 不过,当我们关注“罗一笑事件”欺骗广大群众时候,我们是不是也应该思考一下,该如何避免此次事件再次发生?也许人工智能可以帮上大忙! ? 人工智能+大数据,实时审核慈善内容真实性 一般来讲,网上所发布一切内容都会经过政府相关部门审查。 受热捧区块链,监督每一笔资金流向 除了道德绑架问题,此次“罗一笑事件”捐款资金流向也受到了群众质疑,对此,最近正备受热捧“区块链”无疑是最佳武器。 对此,人工智能或许不能从根源杜绝此类事件,但是,它可以在极快时间内将事件态势控制在一个范围之内,阻止更多的人受其蛊惑。

    40340

    大堆栈带来高GC开销问题

    这个是个大问题吗? 有多少问题?让我们看看!这里有一个小程序要演示。我们分配了10亿(1E9)个8字节指针,因此大约有8GB内存。然后我们强制一个GC并计算它需要多长时间。 这就产生了一个有趣结果,即存储在此内存中指针不会停止GC收集它们指向“正常”分配内存。这会带来很坏后果,很容易证明这一点。 当我遇到大堆问题时,主要原因如下: - 大量string - 对象中时间是time.Time类型 - map中含有slice值 - map中含有slicekey 关于处理每一个问题不同策略, 事实上,每次我碰到这个问题,我都会感到惊讶,我 震惊是,我又写了一篇关于它博客。希望通过阅读到目前为止,如果它发生在您项目中,您不会感到惊讶,或者您甚至可以预见到问题! 以下是一些处理这些问题有用资源。

    55150

    Java多线程带来风险问题讨论

    当线程还是一项鲜为人知技术时,并发性是一个“高深”主题,但现在主流开发人员都必须了解线程方面的内容,同时也带来了一定风险: 安全性问题 线程安全性可能是非常复杂,在没有充足同步情况下,多个线程中操作执行顺序是不可预测 在串行程序中,活跃性问题形势之一就是无意中造成无限循环,从而使循环之后代码无法得到执行。线程将带来其他一些活跃性问题。 性能问题 与活跃性问题密切相关是性能问题。活跃性意味着某件正确事情最终会发生,但却不够好,因为我们通常希望正确事情尽快发生。 在设计良好并发应用程序中,线程能提升程序性能,但无论如何,线程总会带来某种程度运行时开销。 所有这些因素都将带来额外性能开销,java中如何减少频繁上下文切换呢? 1.

    41120

    技术带来问题,得技术来解决

    上述两个问题,其实都是伦理道德问题,并不是技术问题,从技术角度,无论做什么选择,都不是一件很困难事情。 但是伦理和道德问题,如果没有立法,其实是没有标准。 所以作者换了一个思路来应对这种问题,就是如题方法:技术带来问题,就让技术来解决。 比如,我们是否能提前在距离危险300、500米时就减速,刹车,或可以提前提示行人注意安全,遵守交规,以此来规避这种问题,不要跟伦理道德扯到一起。 从技术上讲,目前5G和AI算力都已经不是问题,未来需要是更多复杂场景深度学习算法完善,这依赖于数据积累和训练,同时,还有更低成本解决方案。 所以,技术带来问题,就让技术来解决,用这个思路再来看“电车难题”,解决方案才是最优。 其实,我们应对日常问题,也应该遵循一个“谁问题,谁解决”,问题要有主体。

    20120

    专家谈人工智能可能带来安全威胁

    英国网络安全公司Darktrace技术总监Dave Palmer在接受“Business Insider”杂志采访时谈到了人工智能可能带来安全威胁,包括: 1 智能病毒可通过工业设备进行勒索 目前一些地方出现了勒索软件 人工智能勒索软件会大大增加这些攻击带来风险——通过自组织使损失最大化并寻求新更有利可图目标。 2 恶意软件将学习如何模仿人行为 人工智能软件已经实现了利用循环神经网络学习模仿人写作风格,未来恶意软件能够查看某人通信内容并学习此人交流风格,然后通过模仿此人去感染其他目标。 4 人工智能革命阴暗面 目前是人工智能技术革命早期阶段,涵盖了无人驾驶汽车、癌症治疗等各个领域,而目前人工智能发展并不深入,随着这些技术变得更加先进、更加容易获取,难免会有人将之用于作恶。 Palmer表示,只需要经过一年左右训练,一项人工智能就可以被用于网络攻击,而参考谷歌DeepMind团队在自然语言方面的进展速度,以上情况在未来几年内将成为现实。

    64160

    欧盟发布《人工智能道德准则》:「可信赖 AI」才是 AI 指路明灯

    选自欧盟官网 机器之心编译 参与:张倩 近日,欧盟委员会发布了由人工智能高级专家组(AI HLEG)编制人工智能道德准则》(AI Ethics Guidelines)草案,指出 AI 发展方向应该是 执行摘要 人工智能是这个时代最具变革性力量之一,它可以为个人和社会带来巨大利益,但同时也会带来某些风险。而这些风险应该得到妥善管理。总的来说,AI 带来收益大于风险。 我们必须遵循「最大化 AI 收益并将其带来风险降到最低」原则。 「可信赖 AI」由两部分组成:1)它应该尊重基本权利、相关法规、核心原则及价值观,确保其目的合乎伦理道德;2)它使用技术应该非常稳健、可靠,因为即使是出于好意,如果没有成熟技术加持,技术也会带来意想不到伤害 这些指导原则构成了「可信赖 AI」基本框架: ? 「可信赖 AI」框架 Chapter I :确保人工智能目的合乎道德,规定了人工智能发展应该遵守基本权利、原则和价值观。

    80020

    如何应对云应用带来安全问题?

    云计算时代,IT安全专家承担着管理安全重担,因为他们面临是日益复杂基于云威胁。 安全专家需要是深入理解云,其目的是理解最新威胁,并找到强化防御方法。 此文并不是谈云能实现安全利益,虽然这些好处包括全球威胁情报和历史数据无限存储功能、用于安全分析强大处理功能,以及在企业最前沿阵地部署安全技术能力。 攻击者还可以使用凭据来加密备份云存储数据,进一步给用户带来麻烦。 为确保理解并且解决云应用给企业带来重大安全挑战,企业需要额外洞察力和有关背景知识。 为此,不妨问一下如下几个问题: 1.如何知道雇员们在使用哪些云应用?其风险如何? 为解决影子IT(Shadow IT)问题,企业需要能够看到雇员们正在使用全部云应用完整清单,并且理解与每个云应用有关风险水平。一个被认为具有企业性质云应用支持多重企业安全需求。

    52740

    关注

    腾讯云开发者公众号
    10元无门槛代金券
    洞察腾讯核心技术
    剖析业界实践案例
    腾讯云开发者公众号二维码

    相关产品

    • 腾讯云 TI 平台

      腾讯云 TI 平台

      智能钛机器学习(TI-ML)是基于腾讯云强大计算能力的一站式机器学习生态服务平台。它能够对各种数据源、组件、算法、模型和评估模块进行组合,使得算法工程师和数据科学家在其之上能够方便地进行模型训练、评估和预测……

    相关资讯

    热门标签

    活动推荐

      运营活动

      活动名称
      广告关闭

      扫码关注腾讯云开发者

      领取腾讯云代金券