translate.js
两行 js 实现 html 全自动翻译。无需改动页面、无语言配置文件、无 API Key、对 SEO 友好!
http://res.zvo.cn/translate/demo.html
在你的网页最末尾,</html>
之前,加入以下代码,会在页面的最底部出现选择语言的标签:
<script src="https://cdn.staticfile.net/translate.js/3.7.0/translate.js"></script>
<script> translate.language.setLocal('chinese_simplified'); //设置本地语种(当前网页的语种)。如果不设置,默认就是 'chinese_simplified' 简体中文。可填写如 'english'、'chinese_simplified' 等,具体参见文档下方关于此的说明。translate.service.use('client.edge'); //设置机器翻译服务通道,直接客户端本身,不依赖服务端 。相关说明参考 http://translate.zvo.cn/43086.html translate.execute(); //进行翻译 </script>
除了常用的 drawio、my-mind,还有一款值得使用的思维导图软件,就是 excalidraw,以下是他的特色:
仓库地址:
https://github.com/excalidraw/excalidraw
在线地址:
https://excalidraw.com/
我觉得相比drawio,除了手绘风格,还有很多的比较新的图标库以及素材库可以选择,所以也是绘制思维导图的一个不错的选择。尤其是对于思维内容UI风格有追求的同学。
1Panel
应用推荐:KubePi 开源 Kubernetes 管理面板KubePi 是一个现代化的 K8s 面板。KubePi 允许管理员导入多个 Kubernetes 集群,并且通过权限控制,将不同 cluster、namespace 的权限分配给指定用户;允许开发人员管理 Kubernetes 集群中运行的应用程序并对其进行故障排查,供开发人员更好地处理 Kubernetes 集群中的复杂性。
官方网站
https://github.com/1Panel-dev/KubePi
Docker快速开始
docker run --privileged -d --restart=unless-stopped -p 80:80 1panel/kubepi
# 用户名: admin
# 密码: kubepi
今日看到一位在谷歌任职的研究科学家Nicholas Carlini发表的一篇我如何使用AI
的文章,觉得收获不小,在这里分享给大家我的一些读后收获。
原文链接:https://nicholas.carlini.com/writing/2024/how-i-use-ai.htmlhttps://nicholas.carlini.com/writing/2024/how-i-use-ai.html
先来介绍下这位谷歌科学家 Nicholas Carlini
Nicholas Carlini是 Google DeepMind(以前在 Google Brain 任职)的一名研究科学家,研究机器学习和计算机安全的交叉领域。最近的工作是从对抗的角度研究神经网络的特性。于 2018 年获得加州大学伯克利分校的博士学位,并于 2013 年获得计算机科学和数学学士学位(也是加州大学伯克利分校的)。对开发针对机器学习系统的攻击很感兴趣;大部分工作都是开发能够展示这些系统的安全和隐私风险的攻击。凭借这项工作,获得了 IEEE S&P(一次1)、USENIX Security(两次1、2)和 ICML(三次1、2、3)的最佳论文奖。他的作品已在公共媒体上发表,包括 《纽约时报》、 《BBC》、 《自然》杂志、 《科学》杂志、 《连线》和 《大众科学》等。当不忙于研究时,会编写大量无用的代码,从通过 一次printf调用编写的混淆井字游戏(赢得了 IOCCC 2020 最佳展示奖)、到用 13k WebGL + JavaScript 编写的Doom 克隆版,再到在康威生命游戏之上构建的功能齐全的CPU 。
他的开源仓库地址: https://github.com/carlini
我对于作者文章How I Use "AI"的读后收获如下:
通读全文,作者用自己的亲身经历,给我们一个独特的视角,通过作者文章,也让我们读者认识到大语言模型在实际生活工作中的强大能力,作者在过去一年的时间里,每周花费几个小时和各种大语言模型交互,并且随着交给这些大模型解决越来越困难的任务留给作者深刻印象,并且为作者研究项目和业余项目编写代码提升至少一半的效率。他给出一系列具体的例子证明了LLMs在提高工作效率方面的实际效用。这些详细的举例,让我们读者对大语言模型(LLMs)的实用性和发展前景有了更多的了解。对于未来科技如何重新塑造我们生活得到了更多的探索。以下的文章总结,我也是使用了ChatGPT 4o-mini模型能力辅助我阅读和理解作者这篇文章,我觉得读长篇文章的能力和效率明显提升了。
以下内容站在作者“我”的身份进行叙述,其中举例的与大模型的对话具体内容我这里就没有贴出来了,感兴趣的同学还是直接原文阅读查看:
作为一名软件工程师,作者一直在探索如何更高效地完成工作,尤其是在那些枯燥、重复的任务上。近几年来,语言模型(LLMs)成了作者工作中的重要伙伴,帮助作者加快开发速度、学习新技术、优化代码,甚至解决一些作者不愿意花时间去搞定的琐事。
去年我开发了一个有趣的小测验,目的是让人们测试他们预测对GPT-4的解决任务的能力。这个测验意外走红,页面浏览量超过了一千万!更令人惊讶的是,最初的版本几乎全靠GPT-4帮我写出来的。你可以想象,我只是向模型描述了我想要的功能,结果它就帮我生成了完整的代码!遇到问题时,我只需把错误信息粘贴进对话框,模型就会给我解决方案。这让我可以把更多精力放在创意上,而不是纠结于技术细节。
通过作者这个例子,我觉得在人工智能面前,我们自己的思路和想法才是最重要的,而语言模型就是我们得力的帮手,做出一个大家喜欢的应用,关键还在于内容,用户并不关注背后的技术,所以,有些无聊的编程部分就可以自动化,人工智能真的可以帮助我们专注进行创作和有意义的事情上。
随着技术更新的速度越来越快,我发现在跟上这些新东西上越来越吃力。以前,我会花很多时间阅读教程或文档来学习新技术,但效率总是不高。现在有了语言模型,我可以直接提问,让它一步步教我。例如,我最近不得不学Docker。完全不懂的情况下,我跟模型聊了一会儿,它就给了我一个快速上手的指南,还教我如何用它来完成特定任务。通过这种互动式学习,我能够更快地掌握新工具。
作者还说,如果换做以前还得买本书,然后阅读了前面几章内容,再跳到自己想做的事情上,还得上网搜索相关的docker教程,然后有报错还得再找,想起来当初自己学K8s的时候,没有大语言模型,全靠书籍和文章,一步一步摸索,报错解决的效率奇低,再看现在,想学一个新框架或者新的技术,真的不怕你学不会就怕你不学
对于一个新项目,特别是涉及我不熟悉的框架时,我总是有点怵头。比如最近我想写点CUDA代码,但对如何在GPU上执行任务完全没头绪。于是,我让模型给我写了一个基础的CUDA程序,虽然代码不是完美的,但给了我一个很好的起点。还有,我做个人项目时,用Raspberry Pi Pico W进行开发,让模型帮我写出第一个“Hello World”程序,确认一切设置和编译都正确后,我就可以安心开始我的项目了。
读到这段,我真的觉得没那么焦虑了,大神曾经也是菜鸟,因为作者学的第一门编程语言是Java,作者觉得可能是一个错误,哈哈哈,作者非常喜欢编程,但有一件事,就是面对一个新项目的空白,尤其java,即使只是编译一个 hello world 程序——这个“public static void main string args”在做什么。括号放在哪里?哪些字母又是大写的?为什么这里用花括号,那里用方括号?原来作者这样的科学家也经历了这段时光,我觉得自己突然又信心大增,有200%的动力去编程了。
在安全研究工作中,我常常需要分析和优化别人写的复杂代码,这不仅枯燥,还非常耗时。最近,我用Python调用了一个C++工具,但这个工具的命令行选项过于复杂。我把代码粘贴给模型,它帮我简化成了我需要的功能。接着,我让模型为简化后的代码编写了一个Python封装。这不仅让我省下了时间,还避免了许多烦人的调试工作。
代码仓库里面有其他人研究项目的数千行代码,作者必须弄清楚它是如何工作的,然后才能对其进行攻击。这听起来并不难,如果每个人都写出干净的代码,这其实也不难,但我们生活的世界并非如此。研究人员没有动力发布简洁的代码。所以人们经常会去发布他们能用的任何垃圾代码。(我也这么做。) 读到这里,我觉得真的好真实,哈哈哈,能鼓励到每一个读者
有些任务简单但非常重复,自己做起来又慢又无聊。过去,我会因为这些事情拖延不前。现在,我把这些工作交给语言模型,自己专注于更重要的部分。例如,反编译Python程序的操作码是一项既繁琐又容易出错的工作。我让模型来处理这些代码,结果不仅快而且准确。
说起这个,发现简单反复的工作真的很多,自己的工作我是否使用了自动化呢?从明天开始,让自动化去替代自己的人工操作
有时候,看别人手动做一些简单却费时的事,真的让人着急。最近,我遇到一个任务,需要将C代码中的键盘定义转换成Python字典。手动做虽然能搞定,但过程太麻烦了。我干脆让模型帮我自动转换这些代码,大大节省了时间和精力。
尽管已经有现成的自动化的程序,但使用大模型速效率更高,看到这里我觉得真的以前很多不会的,瞬间就有了超能力
每当我编程时,总会需要查阅API文档。以前,我会花很多时间在网上搜索、阅读文档。现在,我只需要直接问模型,它会立刻给我答案。这种方式不仅更快捷,还能让我更专注于编写代码。
我觉得作为程序员,这种方式真的可以节约很多时间,不必一个一个对照文档去了解,只需要找出我们需要的功能和对应的api,然后直接去使用就行了
几乎所有事情都已经被别人做过了。你想做的事情几乎没有什么真正新颖的。语言模型非常擅长为你提供它们以前见过的东西的解决方案。
这里深有体会,因为语言模型给出的基本都是已有的解决方案,我们要做的就是合理利用,比如像作者一样,直接输入
将其转换为 Python 中的请求函数。将内容作为参数
curl https://api.openai.com/v1/chat/completions \ -H “Content-Type:application/json” \ -H “Authorization:Bearer $OPENAI_API_KEY” \ -d '{
“model”:“gpt-3.5-turbo”,
“messages”:[{“role”:“user”, “content”:“说这是一个测试!”}],
“temperature”:0.7
}':
处理编程错误曾经是我最头疼的事之一。过去,我会把错误信息复制到Google,然后一个个点击Stack Overflow的链接,寻找解决方案。现在,我直接把错误信息贴给模型,它会一步步引导我修复问题。这个过程不仅省去了大量时间,还让我从中学到了不少新知识。
这里已经是熟练使用了,我也是直接将错误信息贴给模型,虽然有时候不能立马解决,但起码给了很多解决思路,真的很方便
我完全相信,我对这些模型的使用在未来会继续增长。作为参考,与 2023 年相比,我在 2024 年通过 Web 界面进行的 LLM 查询增加了 30%——我甚至无法计算 API 查询的增加,但我怀疑这至少是 2 或 3 倍。
作者通过这些具体例子,表明 LLMs 在提高生产力方面已经发挥了巨大的作用,虽然它们并不能解决所有问题,但在很多场景下,它们的确让我们的工作事半功倍。未来,相信这些模型会越来越智能,帮助我们在更多领域提高效率。希望这些经验对你也有所启发,让我们一起在工作中更好地利用这些强大的工具吧!
作者还在结尾说,拭目以待未来五年将会发生什么。在作者下一篇文章中,将对此进行一些推测。但他不知道是该兴奋还是害怕。等作者更新了,我再来给大家分享,能读到这里的读者真的很有耐心,相信你也一定可以利用语言大模型帮助到自己做更多有意义的事情!