首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

商汤自曝近况:明年或IPO、无人车大单、不寻常的研、C轮将完

包括:IPO时间表、1亿美元的无人车大单、不寻常的研设立目的…… 首谈IPO:可能明年,也可能后年 “我们并不着急,资金从来都不是问题。我们想要多少就能有多少,大牌投资人都在排着队等着进入。...路透新闻里写的“as early as next year”仅指在建立研发中心。另外C轮融资计划年底结束,目前无更多信息分享。...非常欢迎“熟悉内情的消息人士”悄悄跟量子位说一声~ 不寻常的晓鸥表示明年年初,商汤会在美国设立研发中心——这有些不同寻常。...不过,晓鸥谈及这次商汤决定开设研,却给出一个不同寻常的理由。 晓鸥说,商汤研目的是为了与合作伙伴们更好一起工作。...晓鸥也未透露商汤具体估值多少。路透曾报道称上一轮估值20亿美元,但晓鸥说要比20亿美元高。 无论如何,关于AI领域的竞逐,悬念也越来越少了。

95070

干了这碗“美丽”,网页解析倍儿爽

今天我们来分享下,当你已经把内容爬下来之后,如何提取出其中你需要的具体信息。...但可惜掌握它需要一定的学习成本,原本我们有一个网页提取的问题,用了正则表达式,现在我们有了两个问题。 HTML 文档本身是结构化的文本,有一定的规则,通过它的结构可以简化信息提取。...于是,就有了lxml、pyquery、BeautifulSoup等网页信息提取库。一般我们会用这些库来提取网页信息。...BeautifulSoup(下文简称 bs)翻译成中文就是“美丽的”,这个奇特的名字来源于《爱丽丝梦游仙境》(这也是为何在其官网会配上奇怪的插图,以及用《爱丽丝》的片段作为测试文本)。...# p 元素下的 b 元素 # The Dormouse's story soup.p.parent.name # p 元素的父节点的标签 # body 并不是所有信息都可以简单通过结构化获取

95920
您找到你想要的搜索结果了吗?
是的
没有找到

干了这碗“美丽”,网页解析倍儿爽

今天我们来分享下,当你已经把内容爬下来之后,如何提取出其中你需要的具体信息。...但可惜掌握它需要一定的学习成本,原本我们有一个网页提取的问题,用了正则表达式,现在我们有了两个问题。 ? HTML 文档本身是结构化的文本,有一定的规则,通过它的结构可以简化信息提取。...于是,就有了lxml、pyquery、BeautifulSoup等网页信息提取库。一般我们会用这些库来提取网页信息。...BeautifulSoup(下文简称 bs)翻译成中文就是“美丽的”,这个奇特的名字来源于《爱丽丝梦游仙境》(这也是为何在其官网会配上奇怪的插图,以及用《爱丽丝》的片段作为测试文本)。...soup.p.b # p 元素下的 b 元素# The Dormouse's story soup.p.parent.name # p 元素的父节点的标签# body 并不是所有信息都可以简单通过结构化获取

1.3K20

用BeautifulSoup来煲美味的

基础第三篇:用BeautifulSoup来煲美味的 许多人喜欢在介绍正则表达式以后才来介绍本篇BeautifulSoup的用法,但是我觉得BeautifulSoup比正则表达式好用,而且容易上手...你可能会问BeautifulSoup:美味的?这个东西能干嘛?为什么起这个名字呢?先来看一下官方的介绍。...Welcome to the world for python' 是不是和NavigableString的使用非常相似,我们这里使用 p.string 对标签内的字符串进行提取。...说完了节点的获取,接下来说一下如何提取已经获取的节点的内容呢? 节点内容 前面说过对于NavigableString对象,我们可以采用 .string 来获取文本信息。...好了本篇关于用BeautifulSoup来煲美味的的介绍就到此为止了,感谢你的赏阅!

1.8K30

Python应用 | 我喜欢看什么剧(一)

《权利的游戏》、《天赋异禀》等耳熟能详的剧,面对如此繁多的剧,此时不禁会问自己,我喜欢看什么剧呢? 这是一个非常难以回答的问题,原因在于不同的人会有不同的偏好。...为了搞明白我喜欢看什么剧,前提是要知道目前有哪些剧,然后才能在这些剧中根据条件筛选出我喜欢看的。所以第一件事要做的就是采集基本的数据。...有了网页的HTML代码接下来就需要从这些代码中提取需要的、有价值的信息,这个工具就是BeautifulSoup来完成。我们将从代码中提取剧名称、URL地址以及评分数据。...div.hy-video-list li > a'): row = edict() row.video_name = item['title'] row.video_url = item['href...li > a'): row = edict() row.video_name = item['title'] row.video_url = item['href

50630

拉勾网爬虫数据的后续处理

position_link = resp[i].findAll('a', attrs={'class': 'position_link'}) link = position_link[0]['href...情感分析 文本摘要 主题发现 文本相似度 中文分词 语义识别 自动聚类 文本挖掘 机器学习 数据计算平台 数据 业务 java 数学 正则 中英文分词 词性标注 实体识别 句法分析 自动文本分类 关键值提取...对话生成 知识图谱 软件设计 开发编程 信息抽取 分类 聚类 情感分析 关联规则挖掘 协同过滤 数据挖掘 机器学习 python c++ 数据结构 算法 系统设计 编程能力 计算机科学 数学 统计 提取标签化信息...商汤科技 AKULAKU 橙鹰 物灵 遥望网络 新浪微博 臣倍健 四达时代集团 爱奇艺 中译语通 主要是IT通讯及互联网行业业务 深思考人工智能机器人 滴滴出行 商汤科技 马上金融 焦点科技 腾讯无线大连研发中心...新浪网 宜信 海知智能 VINCI 任你说 大洋 爱智慧科技 誉存科技 泛微 Udesk-企业级智能客服平台 数 宜信 誉存科技 知道创宇 杭州明霖 InnoTREE 柚 新浪微博 百分点 团点评

2K80

网页解析之Beautiful Soup库运用

是要解析的对象,不难看出其就是response响应的文本内容,而括号中的 html.parser 是Beautiful Soup库中自带的解析html的方法工具,上面代码中的soup(大神都称它为美丽)...其实质也就是源代码,即源代码==标签树==美丽。...意见反馈 #在这个简易标签树中,...这一个整体称为标签Tag;a 即为标签名;class="cp-feedback" href="http://jianyi.baidu.com/" 这是标签的两个属性...Beautiful Soup库除了以上内容,更重要的内容还有HTML的遍历,这一块内容不仅多,而且对于后面的信息数据提取来说也非常重要,所以就放在下一篇文章中来说,想要提前学习的可以访问文章开始部分给出的两个网站

1.2K70

数据解析-bs4

首先要了解什么是bs4 bs4是BeautifulSoup的简称,我叫他靓hhh bs4的原理: - 实例化一个bs对象,且将页面源码数据加载到该对象中。...- 使用bs对象中封装好的属性或者方法实现标签定位 - 将定位到的标签中的文本(属性)取出 *如果提取出来的内容乱码,在发起请求的text方法后面再上 ".encode='ISO-8859-...headers).text.encode("ISO-8859-1") # 创建实例 soup = BeautifulSoup(page_text, "lxml") # 用层级选择提取目录...for li in mulu_list: title = li.a.string # 章节是每一个li标签中的a标签的直系内容 # 再提取出...li标签中的a标签下的href中的内容,将他拼接成一个完整的网址(进入详细页可知网址不完整) detail_url = "https://www.shicimingju.com"

79720

学AI的高中生还有5秒钟到达战场,请90后叔叔阿姨做好准备

编者先从变色鸢尾和山鸢尾两种植物的分类入手,引入特征提取、分类器判断的过程,详细讲了特征提取是什么、如何把特征总结为特征向量、如何训练分类器、感知器学习算法、损失函数以及支持向量机。...神来之笔: 创作图画 8.1九层之台, 起于累土: 数据空间和数据分布 8.2化腐朽为神奇的创作家: 生成网络 8.3火眼金睛的鉴赏家: 判别网络 8.4在对抗中合作与进步: 生成对抗网络 8.5得心应手创作...教授也可以皮一下 除了知识与科普,主编晓鸥教授也在书里放了一点点彩蛋。...而本书主编、著名人工智能科学家晓鸥教授的儿子就叫铭铭。 真·孩奴·晓鸥教授,的确在儿子身上寄托了很大的希望呢。...这些学校所在城市的本地居民都知道,这类学校是一个城市乃至一个省最为知名的顶尖高中了,能够在这些学校就读的孩子,除了极个别天赋异禀的学生之外,多数是既有条件优厚的家庭背景、又足够聪明好学的孩子。

50310

​Python 操作BeautifulSoup4

Beautiful Soup 是一个可以从HTML或XML文件中提取数据的Python库.它能够通过你喜欢的转换器实现惯用的文档导航,查找,修改文档的方式.Beautiful Soup会帮你节省数小时甚至数天的工作时间...HTML 文档本身是结构化的文本,有一定的规则,通过它的结构可以简化信息提取。于是,就有了lxml、pyquery、BeautifulSoup等网页信息提取库。一般我们会用这些库来提取网页信息。...BeautifulSoup(下文简称 bs)翻译成中文就是“美丽的”,这个奇特的名字来源于《爱丽丝梦游仙境》(这也是为何在其官网会配上奇怪的插图,以及用《爱丽丝》的片段作为测试文本)。...="http://example.com/elsie" class="sister" id="link1">Elsie, Lacie andTillie

23210

墨奇科技林鹏:如何用 AI 技术颠覆指纹识别?

而在我们的多尺度算法索引下,我们会按照整体到局部在到细节等多个尺度,对指纹图像进行特征提取,不同尺度之间我们还会考虑它的多样性刻画。相比于传统的指纹识别,这种算法可以提取到更多的信息,看到更多的细节。...而相比于深度学习算法,这种多尺度的算法则可以更有效对质量较差的指纹进行识别。 ? 高精度图像搜索数学模型 再说说只需极少量样本的自学习框架。其实这一框架与上面的多尺度表示是相辅相成的。...传统的深度学习框架需要大量的标注数据,其原因在于一张图片能提取的特征只有一两个。比如要识别一只猫的体态,需要对成百上千张不同体态的猫的图片进行特征提取,才能完成训练。...而在多尺度多样化表示的算法中,一张图中就可以提取出成百上千个特征,这样一来,我们所需要的样本数量就可以压缩到传统深度学习的千分之一,甚至万分之一。...同时,通过对三维手指外在的眩光、时序信号等,可以精确分析手指的生理和光学性质,从而判断指纹是否来自活体。 ? 未来,打通AIoT和5G场景 CSDN:你如何看待深度学习的发展?

1.5K10

网络设备硬核技术内幕 路由器篇 6 普金森漫游网络世界(中)

普金森先生有点糊涂:“什么叫最长前缀查找?” 绿洲精灵开始不紧不慢地给普金森先生讲解: 原来,在Internet中,总共有42.9亿个地址(2的32次方)。...普金森先生疑惑问。 “因为你的目的地址,在FIB表中没有查找到结果。”绿洲精灵轻轻叹了口气。“你马上会被送到控制平面去分析。”...说时迟那时快,普金森先生发现自己被机器人像提小鸡一样提起来,塞进了另一条管道。 他高喊:“绿洲精灵——” “别担心,普金森先生。”绿洲精灵还是不紧不慢地说。...绿洲精灵告诉普金森先生。 “可是,这个内存和刚才机器人告诉我的控制平面是什么关系呀?”普金森先生不解问。 “唉,”绿洲精灵笑了笑。“刚才说的主控单元,就是路由器的控制平面。”...绿洲精灵问普金森先生:“你知道为什么这里的机器人不扫描你的二维码也知道地址吗?” 普金森先生摇了摇头。 “你刚才从管道进入控制平面的时候,被自动扫描二维码了,提取出来的地址,就放在你的脚下。”

50010

简单爬虫一部剧(一)

春节前想看一部剧,可惜在腾讯视频上都没有资源,然后找呀找,发现了一个“80s手机电影网” 这里面有很多资源,不过当时还没放假,想着白天下载好,周末再一口气看完 所以就有了一个想法:这次不用迅雷下载,...链接 点一下这个href链接其实浏览器就能自动下载这一集的内容了(这就比较简单了,直接爬这个url就行,不用做其他处理) 综上,要爬这部剧,需要如下2个步骤 (1)请求初始的搜索url,提取每部剧对应的数字...,如32049 (2)根据32049请求剧集列表url,提取每一集对应的下载链接 2....实际代码 (1)提取电视剧id 有很多地方都有剧名对应的数字,这里我提取title属性为剧名的a标签,然后用正则提取href中的数字 如何在python中使用正则表达式~点我查看 def get_tv_id...href_value = ju_id.search(name_label[0].get('href')) if href_value: tv_id

89220

为什么GNE 不做全自动提取列表页的功能

'}, {'title': '成都领馆关闭前24小时:现场有人高唱《大中国》', 'url': 'https://news.163.com/20/0726/19/FIG1NF9I00019B3E.html...'}, {'title': '驻成都总领馆现黑垃圾袋 外媒记者:似乎有碎纸片', 'url': 'https://news.163.com/20/0726/18/FIG0E0IQ0001899O.html...'}, {'title': '驻成都总领馆被通知关闭第3天:凌晨3点有车驶离', 'url': 'https://news.163.com/20/0726/16/FIFOFU580001899O.html...: '新三板精选层下周一见', 'url': 'https://money.163.com/20/0726/07/FIEPSRPS00259DLP.html'}, {'title': '中巴驶入驻成都领馆...接下来,你能成功找到列表页所在的区域,那么如果每一行有多个链接,你如何知道哪一个标签中的文字是标题、哪一个@href对应的网址是正文的网址?

1.1K20

一文读懂正则表达式的基本用法

表示以非贪婪模式匹配0或多个字符,(\d+)表示我们想要提取的是1到多个数字,需要提取的内容一定要放在小括号里,后面接着.*?表示以非贪婪模式匹配0或多个字符,最后的world!...这里group(1)表示提取第一个小括号里的内容,如果有多个小括号,可分别使用group(2),group(3)来提取。 贪婪匹配与非贪婪匹配的区别 在上面的例子中,我们使用了.*?...> 123456 下面来看个例子,这是我在豆瓣读书的网页上复制的一段HTML代码: HTML = """ 用来匹配评分人数,这里要将每一个需要提取的信息放在小括号里,以待下一步的输出,然后不同有用信息的正则表达式之间用.*?...="https://book.douban.com/subject/1770782/> 追风筝的人 [] 卡勒德·胡赛尼 8.9 315272人评价 如上,得到了我想要的信息。

47910
领券