首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

贷款违约预测-Task3 特征工程

代码示例 3.3.1 导入包读取数据 import pandas as pd import numpy as np import matplotlib.pyplot as plt import seaborn...=Q1 − 1.5x IQR,上触须=Q3 + 1.5x IQR; 3.3.4 数据分桶 特征分箱的目的: 从模型效果上来看,特征分箱主要是为了降低变量的复杂性,减少变量噪音对模型的影响,提高自变量因变量的相关度...特征选择不是为了减少训练时间(实际上,一些技术会增加总体训练时间),而是为了减少模型评分时间。...sklearn.feature_selection import SelectKBest from scipy.stats import pearsonr #选择K个最好的特征,返回选择特征后的数据 #第一个参数为计算评估特征是否好的函数...,该函数输入特征矩阵目标向量, #输出二元组(评分,P值)的数组,数组第i项为第i个特征的评分P值。

1.2K20

KDD23 | 动态图扩散+信息解耦;自动过滤在线流量中的网络异常

以 F1 来评估检测性能时,对于基于 svm 的方法,未知攻击为 9%,而 DDoS 则可以达到 40%。...对于第二种纠缠分布,其他领域比如计算机视觉、自然语言处理等具有相关方法,但它们侧重于对象级表征学习,并不适用于入侵检测这一领域。 我们尝试通过「双重解纠缠」来针对解决上述问题。...此时我们需要一个权重矩阵 \ce{w} 来生成 \ce{\mathcal{F}} 的解纠缠表示。...我们将统计解纠缠前后的特征分布可视化,结果如下图所示: 我们可以看到与原始数据相比,解纠缠后的特征分布重叠较少,这表明该模块可以减少特征间的相互参照。...我们在 CIC-ToN-IoT 数据集中跟踪了几个注入攻击数据,获得了这些数据在 3D-IDS E-GraphSAGE 中的表示。同时,我们计算出良性数据在两个模型中的平均嵌入率,作为缩放比例。

53030
您找到你想要的搜索结果了吗?
是的
没有找到

01 TensorFlow入门(1)

TensorFlow将在优化期间修改/调整变量权重/偏差,以最大限度地减少损失函数。 为了实现这一点,我们通过占位符来提供数据。...:一旦我们建立训练了模型,我们就应该通过一些具体的标准来评估新模型的效果。...我们对训练测试集进行评估,这些评估将使我们看到该模型是否在t或以上。 我们将在以后的食谱中解决这些问题。 10.调整超参数:大多数情况下,我们将根据模型性能返回更改一些超级参数。...然后,我们用不同的超参数重复上述步骤,对验证集进行评估。 11.部署/预测新结果:了解如何对新的,未见的数据进行预测也很重要。...truncated_normal()函数总是在指定均值的两个标准偏差内选择正常值

1.5K100

Java8中使用Optional处理null对象

可以说,使用 Optional 可以帮助我们解决业务中,减少值动不动就抛出空指针异常问题,也减少 null 值的判断,提高代码可读性等,这里我们介绍下,如果使用这个 Optional 类。 ?...返回类型: boolean 示例代码: public static void main(String[] args) { // 传入正常值,正常返回一个 Optional 对象,使用..." + optional1.isPresent()); // 传入参数为 null 生成一个 Optional 对象,使用 isPresent 方法 Optional optional2...返回类型: T 示例代码: public static void main(String[] args) { // 传入正常值,正常返回一个 Optional 对象,使用 get 方法获取值...defaultVal; }); System.out.println("输出的值为:"+object2); } 运行代码,可以观察到控制台输出内容如下: 输出的值为:mydlq 输出的值为:执行逻辑生成的默认值

2K10

100亿参数的语言模型跑不动?MIT华人博士提出SmoothQuant量化,内存需求直降一半,速度提升1.56倍!

为了减少量化误差,应该增加所有通道的有效量化比特。当所有通道的最大magnitude相同时,总的有效量化位数将是最大的。...因此需要在权重激活之间分割量化难度,使它们都易于量化。 研究人员引入一个超参数迁移强度α,来控制要从激活迁移到权重的难度。...实验部分 研究人员选择了三个大型语言模型用来评估SmoothQuant,包括OPT, BLOOMGLM-130B;使用七个zero-shot任务,包括LAMBADA, HellaSwag, PIQA...为了展示集成到PyTorchFasterTransformer中的SmoothQuant-O3的速度提升内存节省,研究人员我们测量了一次生成一批4个句子的所有隐藏状态的端到端延迟,也就是context...阶段的延迟,记录了这个过程中GPU内存使用的峰值。

1.4K20

测试思想-测试设计 测试用例设计之正交法

设有两个n阶的拉丁方,如果将它们叠合在一起,恰好出现n^2个不同的有序数对,则称为这两个拉丁方为互相正交的拉丁方,简称正交拉丁方 用数字替代拉丁字母 ? ?...这一特点表明每个因素的每个水平与其它因素的每个水平参与试验的几率是完全相同的,从而保证了在各个水平中最大限度地排除了其它因素水平的干扰,能有效地比较试验结果找出最优的试验条件。...例如,要考察正常值、错误值边界值对某软件界面的影响。每个因素设置3个水平进行试验。...生成正交表(我比较笨,也懒得不查表,直接用工具生成的) ? ? ?...增补测试用例 5:不填姓名、不填身份证号、不填手机号 测试用例可以看出:如果按每个因素两个水平数来考虑的话,需要8个测试用例,而通过正交实验法进行的测试用例只有5个,大大减少了测试用例数。

1.3K30

毛刺的产生与消除

1 竞争与冒险 当一个逻辑门的输入有两个或两个以上的变量发生改变时,由于这些变量是经过不同路径产生的,使得它们状态改变的时刻有先有后,这种时差引起的现象称为竞争(Race)。...竞争的结果将很可能导致冒险(Hazard)发生(例如产生毛刺),造成错误的后果,影响系统的工作。...组合逻辑电路的冒险仅在信号状态改变的时刻出现毛刺,这种冒险是过渡性的,它不会使稳态值偏离正常值,但在时序电路中,冒险是本质的,可导致电路的输出值永远偏离正常值或者发生振荡。...延时的大小不仅连线的长短逻辑单元的数目有关,而且也器件的制造工艺、工作环境等有关。因此,信号在器件中传输的时候,所需要的时间是不能精确估计的,当多路信号同时发生跳变的瞬间,就产生了“竞争冒险”。...在数据传递比较复杂的多模块系统中,由状态机在特定的时刻分别发出控制特定模块的时钟信号或者模块使能信号,状态机的循环控制就可以使得整个系统协调运作,同时减少毛刺信号。

5.2K10

Google DeepMind 大语言模型中的长形态事实性

论文探讨了大语言模型(LLMs)在开放式主题上生成内容时经常包含事实性错误的问题。特别是,它们在回答深入的事实性问题时常常产生与既定真相知识相矛盾的声明。 研究动机是什么?...论文的主要贡献包括:生成了 LongFact 提示集,提出了 SAFE 评估方法,引入了 F1@K 作为评估长篇事实性的聚合指标,对四种模型家族的十三种语言模型进行了广泛的基准测试。...评估每个事实的准确性,减少了对人工评估的依赖。...潜在偏见: 尽管 SAFE 试图通过搜索引擎结果来减少偏见,但使用的语言模型可能会对其自身生成的回答表现出偏好,这可能会在评估中引入潜在的偏见。...通过上述措施,可以在很大程度上确保 SAFE 评估方法的公正性,减少评估过程中的偏见。然而,完全消除所有偏见可能是不现实的,因此持续的监督改进评估方法对于提高评估的准确性公正性至关重要。

8000

入门生成式语言模型(Generative Language Models)

学习如何评估生成式语言模型的性能,例如使用困惑度(Perplexity)等指标。 5. 实践项目案例 参与生成式语言模型相关的项目竞赛,如文本生成、对话生成等。...持续学习实践 跟随最新的研究进展技术发展,学习掌握新的生成式语言模型架构算法。 不断实践尝试,积累经验,提升模型的性能效果。...流式输出: vLLM 支持流式输出,即在生成文本时可以逐步输出结果,而不是等待整个文本生成完毕后才返回结果。这种流式输出的方式可以提高用户体验,减少等待时间。...它们可以轻松地被修改扩展以满足自定义需求。有关支持的模型列表,请参阅支持矩阵。 为了最大化性能减少内存占用,TensorRT-LLM 允许使用不同的量化模式来执行模型(请参阅支持矩阵)。...这三个数据集共同构成了对生成式语言模型进行综合评价的工具箱,它们分别从中文特定评估、跨语言多任务理解以及多语言普遍知识理解的角度出发,帮助研究人员开发者更好地理解优化模型性能,推动生成式AI技术的进步

28810

CMU创建一个开源的AI代码生成模型,C语言表现优于Codex

来源:机器之心本文约2400字,建议阅读5分钟CMU 对现有开源未开源的 AI 代码生成模型进行了全面深入的系统性评估分析了它们在 C、C++、Python 等 12 中不同编程语言中的代码自动完成表现...Codex 的训练语评估设置进行了广泛的比较;其次,在 HumanEval 基准上评估这些模型,比较了不同大小训练步的模型如何扩展以及不同的温度如何影响生成质量;最后,由于 HumanEval 只评估自然语言和...评估设置 研究者使用外部内部基准对所有模型展开了评估。 外在评估。代码建模的最流行下游任务之一是给定自然语言描述的代码生成。...该数据集上包含 164 个以代码注释函数定义形式描述的提示,它们包括参数名称函数名称以及用于判断生成代码是否正确的测试用例。 内在评估。...最后是重复数据删除过滤。整体来看,过滤掉非常大和非常小的文件以及删除重复数据,将文件总量减少了 38%,数据集大小减少了 61%。下表 1 展示了过滤前后数据集大小的变化。

63240

CMU创建一个开源的AI代码生成模型,C语言表现优于Codex

机器之心报道 编辑:杜伟 CMU 对现有开源未开源的 AI 代码生成模型进行了全面深入的系统性评估分析了它们在 C、C++、Python 等 12 中不同编程语言中的代码自动完成表现。...Codex 的训练语评估设置进行了广泛的比较;其次,在 HumanEval 基准上评估这些模型,比较了不同大小训练步的模型如何扩展以及不同的温度如何影响生成质量;最后,由于 HumanEval 只评估自然语言和...评估设置 研究者使用外部内部基准对所有模型展开了评估。 外在评估。代码建模的最流行下游任务之一是给定自然语言描述的代码生成。...该数据集上包含 164 个以代码注释函数定义形式描述的提示,它们包括参数名称函数名称以及用于判断生成代码是否正确的测试用例。 内在评估。...最后是重复数据删除过滤。整体来看,过滤掉非常大和非常小的文件以及删除重复数据,将文件总量减少了 38%,数据集大小减少了 61%。下表 1 展示了过滤前后数据集大小的变化。

82630

NC:生理高频振荡慢波之间的相-幅耦合的发育图谱

对1006个癫痫发作部位的评估显示,癫痫发作时的z评分归一化MIHFO高于非癫痫电极部位。1....在癫痫发作区域内的电极位置显示出明显的,MIHFO率的上升偏差超过了给定区域年龄的正常值。这些发现表明,我们的规范图谱可以作为癫痫术前评估的有价值的参考。2....8251个无伪影的非癫痫电极位点(图1)可用于生成规范地图集。此外。...相比之下,枕外HFOHIL>80Hz的速率显示出显著的发育减少((图2 b)。AIC的评估表明枕外HFOHIL>80Hz的发育减少在幼年大儿童期是相似的(枕外叶AIC)。...因此,脑电图研究者应谨慎解释高价值枕部心肌梗死在年轻老年耐药局灶性癫痫患者术前评估中的意义。研究者先前报道了MI、HFO其他频谱频带的规范图谱在平均年龄介于青春期成年期的患者术前评估中的应用。

12110

Science | 关于生成式人工智能对生产力影响的证据

编译 | 曾全晨 审稿 | 王建民 今天为大家介绍的是来自Shakked Noy的一篇评估生成模型的论文。...如果像计算机这样的自动化技术增强现有工作者,它们可以通过提高工资、提高生产力降低价格同时使工作者、资本所有者消费者受益。 像ChatGPT这样强大的生成型写作工具可以替代或增强人类劳动。...RQ1:使用生成型AI系统对工人在现有任务中的生产力有何影响?工人是否选择使用这些系统?在使用这些系统的情况下,工人如何与它们互动,它们如何影响生产力?...输出质量由同一职业中的经验丰富的专业人士进行评估评估者被要求将输出视为在工作环境中遇到的情况,获得激励以在1到7的评分标尺上仔细评分。...处理组被要求在第一次任务第二次任务之间注册ChatGPT,获得如何使用它的指导。他们被告知如果发现有用,可以在第二次任务中使用它。

22020

大语言模型的可信之路:TrustLLM全面揭秘

然而,LLMs 的兴起也引入了关于它们可信度的担忧。与传统语言模型不同,LLMs 具有可能导致可信赖问题的独特特性: 1)LLMs 的输出复杂性多样性,加上它们的优秀的生成能力。...同时,它们先进的生成能力为恶意行为者滥用开辟了途径,包括传播虚假信息促进网络攻击。例如,攻击者可能使用 LLMs 制作欺骗性误导性文本,诱导用户点击恶意链接或下载恶意软件。...阻碍 LLMs 实际应用的一个主要障碍是它们生成不准确或缺乏事实精确性的内容。这种生成不准确信息的行为可以归因于不完美的训练数据。...这部分分析重点关注 LLMs 无意中嵌⼊随后暴露敏感数据的⻛险,从而强调它们输出中的潜在隐私泄露⻛险。...为了系统性地减少幻觉,作者需要基于各种知识来源(中间知识、外部知识⼈类反馈)来引导生成。无论是事实知识还是社会信仰,都会随着时间的推移而变化。

21710

跳过不重要,关注关键点 ! ToSA ,优化 Transformer 层的标记处理,为密集预测任务削减计算成本 !

然后,基于 Query 键计算注意力图,然后与值相乘: 所有注意力头的输出被连接起来输入到一个线性层,以生成该 Transformer 层的最终输出: 其中是一个线性投影矩阵。...它消耗来自前一个标准层的未归一化注意力图(即,)预测下一层的相应头的注意力图。这些预测用于确定重要标记。更具体地说,作者对每个头的预测注意力图进行列求和,为每个标记生成一个重要性分数。...### 实验设置 数据集评估: 作者在ImageNet [16] 上执行标准的图像分类评估。...对于ImageNet评估,作者使用ImageNet训练数据在ToSA上训练标记选择器对DeiT-Tiny进行微调。...另一方面,尽管现有工作如ToMe [1] a-STAR [23] 也可以显著减少计算量,但它们依赖于减少标记的数量,即通过网络后只保留少量的标记。

10210

UIUC && 清华 | 提出Magicoder大模型:7B模型堪比ChatGPTGemini(含源码)

但是,LLM的固有偏见会影响其代码生成的创造性, 为此,「伊利诺伊大学香槟分校(UIUC)提出了OSS-INSTRUCT」,用以减少 LLM 的固有偏见释放它们通过直接从开源学习创造高质量创造性代码指令的潜力...Magicoder 在本文中,来自伊利诺伊大学香槟分校(UIUC)的张令明老师团队提出了 OSS-INSTRUCT,用以减少 LLM 的固有偏见释放它们通过直接从开源学习创造高质量创造性代码指令的潜力...在这个例子中,LLM 受到来自不同函数的两个不完整代码片段的启发,成功地将它们关联起来创造出了逼真的机器学习问题。...研究者在广泛的编程任务中对 Magicoder MagicoderS 进行评估,包括 Python 文本到代码生成的 HumanEval MBPP、多语言代码生成的 MultiPL-E,以及解决数据科学问题的...此外,尽管评估框架以补全格式评估模型,但 Magicoders 仍然表现出明显的改进,尽管它们只进行了指令微调。这表明 LLM 可以从其格式之外的数据中学习知识。

78210

Meta | 提出分支、求解、合并(BSM)方案,可让Llama-chat-70B 媲美 GPT-4!

引言 当前,大型语言模型(LLMs)经常被应用于各种语言生成评估任务,对于具体任务往往需要考虑各种约束评估标准。但是,由于模型无法规划分解问题,缺乏连贯性,它们的性能可能会达不到要求。...最近的研究试图通过开发引发推理、规划细化的迭代方法来减轻这些限制,但到目前为止,它们仍然被认为是一个开放问题。...合并模块接受求解模型生成的解决方案集合作为输入,生成原始任务的最终解决方案。...如上图所示,给定一组随机概念,“分支”模块首先将它们分为两组生成一个故事主题。...实验结果 将BSM方法应用于 LLM 输出评估和约束文本生成的任务,使用多个 LLM 评估其有效性,包括 Vicuna、LLaMA-2-chat GPT-4。

31340

iOS 网速检测方案

背景 为了基于网络状况做更细致的业务策略,需要一套网速检测方案,尽量低成本的评估当前网络状况,所以我们希望检测数据来自于过往的网络请求,而不是专门耗费资源去网络请求来准确评估。...指标计算 一般 RTT 作为网速的主要评估指标,拿到批量的历史请求 RTT 值后,要如何去计算得到较为准确的目标 RTT 值呢?...half_life_seconds, 0); return pow(0.5, 1.0 / half_life_seconds); } 其实就是设计一个半衰期,计算得到“每秒衰减因子”,比如这里就是一个 RTT 值当前时间差异...可信度越高,因为越接近当前时间的网络状况; 同等半衰期下,历史 RTT 值量级越大,可信度越高,因为会抹平更多的服务器性能差异; 所以更进一步的话,半衰期可以根据历史 RTT 值的量级来进行调节,找到它们之间的平衡点...比如当某个 RTT 值比正常值大几十倍且权重稍高时,加权平均值也会很大,更优的做法是获取加权中值,这也是 nqe 的做法,伪代码为: //按 RTT 值从小到大排序 samples.sort() //目标权重是总权重的一半

1.3K10

清华 & 卡梅隆 & 上交大 打破计算瓶颈,DiTFastAttn 方法优化扩散 Transformer 的图像与视频生成

评估结果显示,对于图像生成,作者的方法最多减少了88%的FLOPs,并在高分辨率生成时实现了最高1.6倍的加速。...1 Introduction 扩散 Transformer (DiT)最近在图像生成视频生成中越来越受欢迎。然而,DiT的一个主要挑战是它们的计算需求量很大,特别是在生成高分辨率内容时特别明显。...每个 Query 保留自己的参数,而每组共享一个键一个值,从而减少内存使用并提高效率。PSVIT 指出,ViT中不同层之间的注意力图具有显著相似性,建议跨层共享注意力图以减少冗余计算。...尽管D4、D5D6实现了更大的压缩,并在生成图像的细节上略有差异,但它们仍然产生了可用质量的图像。...随着分辨率的增加,WA-RS可以将注意力计算从69%减少到23%,延迟减少从93%到70%。WA-RSASC技术是正交的;它们可以同时使用,而不会产生额外的开销。DiTFastAttn的整体延迟。

9410
领券