首页
学习
活动
专区
工具
TVP
发布

Java技术进阶

全网同名【阿提说说】公众号,博客
专栏成员
163
文章
143919
阅读量
28
订阅数
一个基于Spring实现的热更新插件开发框架
对于其他解释性语言来说,热更新根本不是什么事,但对于Java来说是多么的不容易,现在使用Java开发的热更新系统,基本使用JS编写脚本,然后用Java的JavaScript引擎来跑脚本。
阿提说说
2024-09-11
860
用TCC来解决多个第三方系统数据一致性问题
对于做集成的公司来说,会集成各种第三方系统,要么是通过第三方系统的api,要么直接集成第三方系统的设备。如果是通过api集成,单次请求只调用一个三方系统没问题,同步调用就行,但如果同时要调用多个三方系统,并且需要三方系统都成功的时候才算该次请求成功调用,这种情况只要后面调用的系统发生报错,前面系统如果不删除产生的数据,就会遗留在三方系统中,产生脏数据。这种集成的三方系统,不是我方能够控制的,我们不能修改他们的代码。
阿提说说
2024-09-06
880
《Java面试题集中营》- Redis
单线程能够避免线程切换和竞态产生的消耗,而且单线程可以简化数据结构和算法的实现 至于单线程还快,是因为Redis是基于内存的数据库,内存响应速度是很快的,并且采用epoll作为I/O多路复用技术,再加上Redis自身的事件处理模型将epoll中的连接、读写、关闭都转换为事件,不在网络I/O上浪费过多时间
阿提说说
2024-09-06
770
《Java面试题集中营》- 数据库
反模式:如果完全按照三大范式来设计表结构,会导致业务涉及表增多,查询数据需要多表联合查询,导致sql复杂,性能变差,不利于维护,也不利于分库分表,比如会在表中冗余存储城市id对应的城市名称
阿提说说
2024-07-19
960
《Java面试题集中营》- JVM 知识
程序计数器:线程私有,是一块较小的内存空间,可以看做是当前线程执行的字节码指示器,也是唯一的没有定义OOM的区块
阿提说说
2024-07-14
920
《Java面试题集中营》- Java 锁
乐观锁:认为数据在一般情况下不会造成冲突,在访问记录前不会加排他锁,而是在进行数据提交更新时,才会对数据冲突与否进行检测
阿提说说
2024-07-14
740
《Java面试题集中营》- Java并发
Jdk提供了stop()方法用于强制停止线程,但官方并不建议使用,因为强制停止线程会导致线程使用的资源,比如文件描述符、网络连接处于不正常的状态。建议使用标志位的方式来终止线程,如果线程中有使用无限期的阻塞方式,比如wait()没有设置超时时间,就只能使用interrupt()方法来终止线程
阿提说说
2024-07-14
760
《Java面试题集中营》- Java基础
二进制小数无法精确表达十进制小数,计算机在计算十进制小数的过程中要先转换为二进制进行计算,这个过程中出现了误差
阿提说说
2024-07-14
610
Spring 内置BeanFactoryPostProcessor的子孙们
同样的Spring 也 内置了 一些实现 BeanFactoryPostProcessor的类,各有各的用处。
阿提说说
2024-06-15
750
Spring 内置BeanPostProcessor 的子子孙孙
Spring 框架已经实现了很多BeanPostProcessor的类,如下是关于BeanPostProcessor 的类图,图片过大,可以下载资源包看。
阿提说说
2024-06-15
1040
社区版IDEA 最好用的Diagrams替代插件
Diagrams 是专业版IDEA功能,能很方便的生成类图。但在社区版中要比较方便的生成类图,就比较麻烦,虽然插件有一些但都不好用。 经过各种尝试对比还是SimpleUML更好用,SimpleUML 不能通过IDEA的插件界面安装,只能离线安装,下载地址已经发到文章上方。
阿提说说
2024-06-15
5590
认识Spring中的BeanFactoryPostProcessor
根据BeanFactoryPostProcessor的介绍,创建几个测试类: A类 通过扫描增加,BeanFactoryPostProcessor 实现类
阿提说说
2024-06-11
1340
认识Spring 中的BeanPostProcessor
先看下大模型对这个类的介绍,随后再看下这两个类的示例,最后看下这两个类的实现。 这两个类从名字看都很类似,见名知意:BeanPostProcessor=Bean后置处理器,BeanFactoryPostProcessors=BeanFactory后置处理器
阿提说说
2024-06-08
1100
书生·浦语2.0体系&技术报告
这里介绍了我们如果要做大模型应用,应该如何选择大模型,如何进行微调,以及是否需要使用工具调用,最后进行评测的整体流程
阿提说说
2024-04-02
1810
基于OpenCompass的大模型评测实践
随着人工智能技术的快速发展, 大规模预训练自然语言模型成为了研究热点和关注焦点。OpenAI于2018年提出了第一代GPT模型,开辟了自然语言模型生成式预训练的路线。沿着这条路线,随后又陆续发布了GPT-2和GPT-3模型。与此同时,谷歌也探索了不同的大规模预训练模型方案,例如如T5, Flan等。OpenAI在2022年11月发布ChatGPT,展示了强大的问答能力,逻辑推理能力和内容创作能力,将模型提升到了实用水平,改变人们对大模型能力的认知。在2023年4月,OpenAI发布了新升级的GPT-4模型,通过引入多模态能力,进一步拓展了大语言模型的能力边界,朝着通用人工智能更进一步。ChatGPT和GPT-4推出之后,微软凭借强大的产品化能力迅速将其集成进搜索引擎和Office办公套件中,形成了New Bing和 Office Copilot等产品。谷歌也迅速上线了基于自家大语言模型PaLM和PaLM-2的Bard,与OpenAI和微软展开正面竞争。国内的多家企业和研究机构也在开展大模型的技术研发,百度,阿里,华为,商汤,讯飞等都发布了各自的国产语言大模型,清华,复旦等高校也相继发布了GLM, MOSS等模型。
阿提说说
2024-03-08
3740
【第一小时】Python注释和输出和变量
阿提说说
2024-03-01
800
基于LMDeploy部署大模型和量化
大模型具有庞大的参数量,内存开销大,7B模型仅权重就需要14+G内存,采用自回归生成token,需要缓存Attention 的k/v带来巨大的内存开销;动态shape,请求参数不固定,Token逐个生成,且数量不定,因此在部署上都存在一些挑战。
阿提说说
2024-03-01
9190
基于XTuner微调书生·浦语大模型
XTuner 是一个傻瓜式、轻量级的大语言模型微调工具箱,由MMRazor和MMDeploy联合开发。其以配置文件的形式封装了大部分微调场景,0基础的非专业人员也能一键开始微调;对于 7B 参数量的LLM,微调所需的最小显存仅为 8GB。
阿提说说
2024-03-01
4170
基于InternLM和LangChain搭建自己的知识库
为了突破LLM的局限性,目前有两种范式可行:RAG(检索增强生成)和Finetune(模型微调)。
阿提说说
2024-03-01
7210
书生·浦语大模型图文对话Demo搭建
我们将使用 InternStudio 中的 A100(1/4) 机器和 InternLM-Chat-7B 模型部署一个智能对话 Demo
阿提说说
2024-02-28
1930
点击加载更多
社区活动
【纪录片】中国数据库前世今生
穿越半个世纪,探寻中国数据库50年的发展历程
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档