专栏首页python3试用简化网址服务(3)

试用简化网址服务(3)

easyURL [url]http://www.easyurl.net/[/url] easyURL支持自定义关键字,可以监测链接点击情况。还能使用OpenID收藏网页书签和标签。

rubyurl [url]http://rubyurl.com/[/url] 网上大都说得是"生成的URL缩短链接需要先跳到它的网站再把原始链接给你,比较麻烦。"而自己试用时则并不是这样,当输入完要简化的网址后很快就能得到简化后的网址,与网络上所说有很大出入。

kuso [url]http://www.kuso.cc/[/url] 打开速度有点慢,需要等一点时间。不过生成简化网址的时间还可以,而且如果浏览器使得是IE的话,那么还会将网址自动置入到剪贴簿中,可以直接通过CTRL+V使用。

zipmyurl [url]http://zipmyurl.com/[/url] 这是一款美国的免费域名缩短转发工具。网址很好记,拆开便是“zip my url”,看起来很有意思。在“zip options”中可设置密码保护、自定义后缀或者增加tag等。据网上说注册用户还可以快速发布缩短的域名到Twitter或者del.icio.us等第三方服务。没有注册,不知道该功能用起来怎么样。反正生成新网址的时间不算快,需要等一些时间。

IKnowGo [url]http://www.iknowgo.com/[/url] konwGo可以通过输入缩写、关键词、代码等快速地转向到相应网站上去。在注册后还可以添加到某个网站的指令,并且可以设置该指令是只限自己使还是可以让所有人使.当然,前提是该指令没以被别人设置过.此外,Iknowgo还推出了Firefox扩展.安装后,在Firefox的搜索条区域会增加一个iknowgo搜索,在这里输入指令同在ikonwgo网站输入是相同的。

ppt.cc [url]http://ppt.cc/[/url] 这个网站界面是繁体字,打开速度和生成生成新网址速度都很快。除了本职的缩短网址的功能外,还能设置密码保护和网址说明。此外,更让自己感兴趣的是它额外提供了缩文章、网站快照和缩图片等功能,相关服务要比一般的缩短网址服务多了不少,用起来也就更方便一些。

piurl [url]http://piurl.com/[/url] piurl 同大多数网址简化服务的功能一样,也不需要注册便可以使用。打开速度一般,生成新网址速度倒还不错。不太一样的是PiURL会同时生成两个缩短网址,一个是可以直接跳转的,另一个是则可以预览原网址。只是界面中所有内容都集中在中间,两边略显空旷,浏览全部内容还需要下滚动条下拉才能看全,稍微有点不方便,别得没有什么。

ur1.ca/ [url]http://ur1.ca/[/url] 功能基本相同,没什么需要多介绍的。要说得就是醒目的界面,界面实在是太醒目了,醒目得让人觉得有些空虚。

(未完待续)

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • 三步爬取半次元热门图片

    边学习,边创造是一件开心的事情,因为你会清楚的认识到自己的状态,以及那充满内心的成就感,因此从写爬虫开始学习python是一个简单粗暴的提升路线,不知不觉了解很...

    py3study
  • Python 多进程使用之监控

    pool用于设置进程池,这个在数据量很大的情况下采用pool远比使用process要好很多,后者会消耗掉大量服务器资源,甚至导致宕机的风险,在数据量不大的情况下...

    py3study
  • python 重定向获取真实url

    py3study
  • Scrapy实战7: 分类爬取医疗信息网站图片

    今天X先生带大家正真的实战:爬取医疗信息网站的图片及分类存储到本地和存储到MySql数据库。

    叫我龙总
  • Python 利用Python编写简单网络爬虫实例2

    获取目标网站“http://www.51testing.com/html/index.html”中特定url,通过分析发现,目标url同其它url的关系如下

    授客
  • python实现简单爬虫

    前段时间将python的基础写在了头条号里面,最近一段时间在研究前端知识和laravel框架,把python的代码放了,今天不忙写了一个简单的爬虫。下面是代码(...

    申霖
  • 外行学 Python 爬虫 第八篇 功能优化

    在前一篇中讲了如何开启多线程来加快爬虫的爬取速度,本节主要对爬虫爬取内容机型优化,将生产商信息单独独立出来作为一张数据库表,不再仅仅是存储一个生产商的名称,同时...

    keinYe
  • Python 爬虫第三篇(循环爬取多个网页)

    本篇是 python 爬虫的第三篇,在前面两篇 Python 爬虫第一篇(urllib+regex) 和 Python 爬虫第二篇(urllib+Beautif...

    keinYe
  • 自己打造基于命令行的书签管理工具

    章鱼喵
  • 专栏:006:实战爬取博客

    谢伟

扫码关注云+社区

领取腾讯云代金券