首页
学习
活动
专区
工具
TVP
发布

今天我们讲英语

数学大题讲完了,看了看高考题,实在没什么挑战性,所以今天换一科讲,我们挑战下英语阅读理解第四篇。

之前有学生让我讲英语的学习方法,趁着这个机会,把答应她的事完成。

我一直提倡为了什么目的就干什么事儿的实用主义哲学。

学英语是为了看电影,那就去看生肉的原音电影,一遍不够,那纯粹是看热闹,十遍也少,语音语调还未掌握,五六十遍差不多了,张嘴就知道角色要说啥,都能给他配音了。当然,这很枯燥,十分无聊,但是效果好啊。不用多,看个五六个片子,大部分电影就都不用看字幕了;

学英语是为了看书,看资料,看最新的 paper,那就买原版书看,首先从稍微高于自己能力的难度开始,太简单的内容没什么学习的意义,太难的内容影响看书的心情。看的时候不要见到生词就查字典,猜,实在不会就跳过。一个作者有自己的用词习惯,你肯定会在不同语境中多次看到某一个词,看多了就脸熟了;

学英语是为了跟人沟通,那就去找个外国人聊嘛。花钱的办法多得是,不好钱的也有很多。找个能聊天的外国网站也好、论坛也好,加一堆好友,然后开聊就OK,先文字聊,熟悉了加了可以语音的软件聊。多大点事儿啊。

学英语是为了考试,那就做考试题嘛。为了高考,那就刷真题,刷模拟题,跟考试无关的一概不学。

怎么刷呢?

听力一塌糊涂的时候就看着原文听朗读,一遍遍来,最后能把原文放下,把播放的每一个字都听明白,那就功成名就了;

阅读要学会通过问题回去找答案,无非是多注意些关键词、引导词、同义词互换,最终就算不懂文章在说什么,能把题做个八九不离十,那就成了;

完型填空,前后要对照着看,有些空可以填好几个选项,到底选哪个,你得看下面怎么讲。逻辑要一致,感情要自然顺畅,积极宣扬正能量;

作文以不错词不错语法为根本,别想着用什么高大上的词汇和太长的从句。毕竟是扣分制,不出彩会扣个整体分,但是有写错的词和语句可以要额外扣分的。所以,慎重选词!

不同学习阶段的学习方法也是不一样的。就像做阅读,如果有基础词汇量还不够并且足够的时间去储备知识,那就把文章一句一句弄清楚,顺便把单词在语境中的意义记住;如果基础知识不错了,为了得分效率,那就看题会文章找答案。

说一句,不要死记硬背单个单词,一定要放在短语或者句子中理解单词的意思。

如果非要死记硬背,推荐去背词根,掌握多个单词之间的联系。

大概就是这些,和很多人说过,大部分人也都懂,就是坚持不下去,或者抹不开那个脸。嗯,脸皮太薄、耐心不够的人不适合学习,适合当宠物被人养着。这个世界属于脸皮厚的人,“会哭的孩子有奶吃”“撑死胆大的,饿死胆小的”,现实就是这样。

你自己看着吧。

OK,我们开始讲题,逐句来吧。

注:红色字体代表从句,修饰的是前面的词;蓝色代表思考方法。

Hollywood’s theorythat machines with evil(邪恶) minds will drive armies of killer robotsis just silly.

要把长句切成短句,分出主句和从句。

好莱坞的理论是很愚蠢的。什么样的理论呢?具有邪恶想法的机器将会驱使杀手机器人组成的军队的理论。所以连起来就是:

好莱坞那种具有邪恶思想的机器将会驱使杀手机器人军队的理论是非常愚蠢的。

这里强调的词是“drive”,可不是“开车,驾驶”的意思,是“驱使,驾驭”的意思,她还有电脑用的“驱动”的意思。

The real problem relates to the possibilitythat artificial intelligence(AI) may become extremely good at achieving something other than what we really want.

真正的问题涉及到可能性。什么样的可能性呢?人工智能可能会变得极度擅长实现并非我们想要的东西。

说人话:我们面临的真正问题是,人工智能会在多大可能上实现并非我们真正所想的事情。

再直白一点说就是机器人是否会违背我们的意愿。

In 1960 a well-known mathematician Norbert Wiener,who founded the field of cybernetics(控制论), put it this way: “If we use, to achieve our purposes, a mechanical agency withwhose operationwe cannot effectively interfere(干预), we had better be quite sure thatthe purposeput into the machineis the purposewhich we really desire.”(多重从句,一层一层剥开,别乱!)

1960年,一个著名的数学家,Norbert Wiener——他建立了控制论,这样说道:“如果我们为了实现我们的目的,使用一个不能有效干预其操作的机械,我们最好确定放入机器的目的是我们真正渴望的目的。”

————————

A machine with a specific purpose has another quality, one thatwe usually associate with living things:a wish to preserve its own existence.

一个具有特定目的的机器拥有另外一种特质,一种我们经常与生物联系在一起的特质:希望保存自己的存在。

For the machine, this quality is not in-born, nor is it something introduced by humans;it is a logical consequence of the simple factthat the machine cannot achieve its original purposeif it is dead.

对于机器来说,这个特质并不是天生的,也不是由人类引入的;它是一种很简单的事实的逻辑结果,即如果机器死了,它就达不到其原来的目的。

So if we send out a robot with the single instruction of fetching coffee, it will have a strong desire to secure success by disabling its own off switch or even killing anyonewho might interfere with its task.

所以,如果我们发出让机器人去取咖啡的单一指令,它就会有通过使自己的关机功能失效或者杀死任何可能打断它的任务的人以强烈保证成功的愿望。

If we are not careful, then, we could face a kind of global chess match against very determined, super intelligent machineswhose objectives conflict with our own, with the real world as the chessboard.

如果我们不小心,那么我们就可能面对一种全球性的国际象棋比赛,对手是非常坚定的超级人工智能,它们的目标与我们的相冲突,现实世界就是棋盘。

————————

The possibility of entering into and losing such a match should concentrate the minds of computer scientists.

进入和输掉这场比赛的可能性应该集中于计算机科学家的头脑中。(就是说由他们控制)

Some researchers argue that we can seal the machines inside a kind of firewall, using them to answer difficult questions but never allowing them to affect the real world.

一些研究人员认为,我们可以将机器封存在一种防火墙内,用它们来回答困难的问题,但是绝不允许它们影响现实世界。

Unfortunately, that plan seems unlikely to work: we have yet to invent a firewallthat is secure against ordinary humans, let alone super intelligent machines.

不幸的是,这个计划似乎不太可能奏效:我们还没有发明一种对付普通人的安全防火墙,更不用说超级智能机器了。

————————

Solving the safety problem well enough to move forward in AI seems to be possible but not easy.

很好的解决安全问题一是我们能够在人工智能领域中向前行进看起来是可能的,但是并不容易。

There are probably decades in which to plan for the arrival of super intelligent machines.

可能需要数十年来计划超级人工智能的到来。

But the problem should not be dismissed out of hand, as it has been by some AI researchers.

但是这个问题不应该被忽略、置之不顾,就像一些AI研究者已经做得似的。

Some argue that humans and machines can coexist as long as they work in teams—yet that is not possible unless machines share the goals of humans.

有些人认为,人类和机器可以共存,只要他们一起工作。但是那不可能,除非机器能共享人类的目标。

Others say we can just “switch them off” as if super intelligent machines are too stupid to think of that possibility.

其他人说,我们可以把它们关掉,就好像超级人工智能机器太愚蠢以至于无法想象到那种可能性。

Still others think that super intelligent AI will never happen.

还有一些人认为,超级人工智能不可能发生。

On September 11, 1933, famous physicist Ernest Rutherford stated, with confidence, “Anyone who expects a source of power in the transformation of these atoms is talking moonshine.”

在1933年9月11日,出名物理学家ErnestRutherford 充满信心地声明:“任何想要在原子转换过程中拥有力量源的人都是在谈论月光”。

However, on September 12, 1933, physicist Leo Szilard invented the neutron-induced(中子诱导) nuclear chain reaction.

然而,1933年9月12日,物理学家Leo Szilard发明了中子诱导核连锁反应。

(嗯,最后这两句我也不太懂~)

看题:

67. Paragraph 1 mainly tells us that artificial intelligence may.

A. run out of human control

B. satisfy human’s real desires

C. command armies of killer robots

D. work faster than a mathematician

68. Machines with specific purposes are associated with living things partly because they might be able to.

A. prevent themselves from being destroyed

B achieve their original goals independently

C. do anything successfully with given orders

D. beat humans in international chess matches

69. According to some researchers, we can use firewalls to.

A. help super intelligent machines work better

B. be secure against evil human beings

C. keep machines from being harmed

D. avoid robots’ affecting the world

70. What does the author think of the safety problem of super intelligent machines?

A. It will disappear with the development of AI.

B. It will get worse with human interference.

C. It will be solved but with difficulty.

D. It will stay for a decade.

有兴趣的话,自己做吧,可以留言自己的答案~~

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20171228G0QC9E00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券