首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

买不起2.6亿一只加密猫, 他用10分钟生了一窝!

创建加密毒蛇,你至少需要用到以下工具 智能合约相关: 智能合约编程语言 Solidity 开源智能合约开发环境 Remix 用于调试和测试智能合约 Metamask 前端技术相关: 用于与本地以太坊节点进行通信...takeOwnership(_tokenId) - 声明给定 ID token 所有权。...当然了,我们还需要定义一个能够查看毒蛇详细信息函数。函数 getViperDetails 在被调用时会返回给定毒蛇基因和父母 ID 之类细节。...如果所有的步骤都没有出错,智能合约得到了正确部署,你会看到如下页面: ? 智能合约编译成功页面 ?...点击 ABI 按钮来复制智能合约 ABI 获取了 ABI 后,在 contract 文件夹下打开名为 abi.js 文件,然后将 ABI 粘贴变量 contractAbi 值,如下所示: 1const

54820

ERC-20,ERC-223,ERC-721和ERC-777详解

首先是totalSupply()函数,它确定在给定项目的TOKEN经济中将要创建令牌总数。 然后是transfer()函数,用于将令牌初始分配给用户钱包。...每当用户想要将某些令牌转移到另一个钱包时,此功能会检查发送地址是否至少具有与transferFrom()函数中规定数量一样多令牌。如果没有,则交易无效。...供应链可以在前所未有的水平上确保产品完整性和可追溯性。至少可以说,ERC-721可能性令人兴奋。...TL; DR ERC-721代币: 是不可替代令牌(NFT) 可用于标记唯一单个资产 最初由Ethereum dapp CryptoKitties使用,除了数字游戏之外还有许多可能应用 什么是ERC...这些TOKEN中大多数无疑将是多余,无用,无价值其中少数几个可能只是改变了我们目前所处互联网时代。

1.3K00
您找到你想要的搜索结果了吗?
是的
没有找到

java基础知识

//去掉了末尾0BigDecimal BigDecimal db2=new BigDecimal("123.12300"); BigDecimal db4...枚举类"} 让编译器能自动检查某个值在枚举集合内,并且,不同用途枚举需要不同类型来标记,不能混用 //721_1_1 demo721_1.demo721_1_1 d=demo721...因此,引用类型比较,要始终使用equals()方法,enum类型可以例外。...如果没有显式地类定义构造方法,Java 编译器将会为该类提供一个默认构造方法。在创建一个对象时候,至少要调用一个构造方法。构造方法名称必须与类同名,一个类可以有多个构造方法。...final 修饰符,用来修饰类、方法和变量,final 修饰类不能够被继承,修饰方法不能被继承类重新定义,修饰变量常量,是不可修改

51530

HEAL-ViT | 球形网格与Transformer完美结合,引领机器学习预测新纪元!

给定一个细化 Level n ,以及窗口大小参数 w ,可以通过以下步骤构建平移窗口: 将每个粗略像素在细化 Level n-w 处分裂细化 Level n-w+1 子像素。...采用直角网格上SWIN Transformer Pangu-Weather和FuXi,使用4x4大小 Patch 将原始图像从721x1440像素减少到180x360大小直角网格(即64,800...\mathcal{V}^{G} 是所有位于721x1440大小经纬度网格上网格节点集合。...接着,前馈层将聚合信息嵌入到维度 2C 潜在空间中: 每个粗节点包含4个细节点,下采样块将4个维度 C 细节点粗化为一个维度 2C 粗节点,这与Pangu-Weather和FuXi中使用下采样块相似...Neural network parametrization 作者编码器输出选择了一个值 C=256 ,即编码器将输入网格从 110\times 721\times 1440 映射一个大小

18410

PyTorch(总)---PyTorch遇到令人迷人BUG与记录

其使用格式:loss(m(input), target),其中input2DTensor大小(minibatch,n),target真实分类标签。...为了说明pytorch中numpy和toch转换关系,测试如下: 首先输入int32numpy数组转换为torch,得到IntTensor类型 ?...如果输入int64numpy,得到LongTensor类型: ? 如果把int32数组转换为LongTensor,则会出错: ? 如果把int64数组转换为LongTensor,正常: ?...如下:定义初始化一个Tensor值,并且对其进行维度交换,在进行Tensor.view()操作时出现以上错误。 ? 这是由于浅拷贝原因,y只是复制了x指针,x改变,y也要随之改变,如下: ?...在NOTE3中代码后面增加如下(更新权重参数): ? 其运行结果: ? 可见使用optimizer.step()实现了网络权重更新。

2.7K80

让海外大型游戏链改成为可能

但也依旧不能打破721标准下NFT太过于精简,无法在足够宏伟gamefi场景中得到很好应用痛点。 而一款活得久游戏最小经济模型,也往往需要3种玩法角色互相作用达成一种稳定供给平衡。...,我mint得到了4号1个,那数据中会存储,4号NFT中我地址持有1个。...想必未来围绕Dapp和链层之间润滑剂中间件相关产业会越来越丰富 虽然已经有场景在涌现,如果从交易规模和总市值维度出发,参考研报数据如下,可以说应用型NFT相对于PFP(头像类NFT)依旧处于萌芽阶段...租赁功能面对721标准:一个ID对应一个user和expires到期时间很合理,1155标准:他这个ID所有者可不只一个,所以EIP-5006仿照1155数据结构,额外增加了3种数据来表示嵌套资产角色租赁关系...3.3 风险点特别说明 此标准目前实现是有风险,因为在标准中,对setUser函数定义公开且为虚函数(表示他可支持继承重写)函数内并未明确限制,”谁“有权可以去修改”谁“租赁关系,导致任意用户可修改任意租赁关系

68420

【深度学习 | LSTM】解开LSTM秘密:门控机制如何控制信息流

首先,我们将前一个隐藏状态和当前输入传递到 sigmoid 函数中,然后将新得到细胞状态传递给 tanh 函数。最后将 tanh 输出与 sigmoid 输出相乘,以确定隐藏状态携带信息。...在给定输入维度(64,32)和LSTM神经元数量32情况下,我们可以计算出以下参数:输入维度:(64,32)这表示每个时间步长(sequence step)输入特征维度32,序列长度64。...其中32是上一时间步隐藏状态大小,另外32是当前时间步输入维度。偏置向量:形状(32,)向量。遗忘门参数:权重矩阵:形状(32,32 + 32)矩阵。偏置向量:形状(32,)向量。...输出参数:权重矩阵:形状(32,32)矩阵。将隐藏状态映射到最终输出维度。偏置向量:形状(32,)向量。因此,总共参数数量可以通过计算上述所有矩阵和向量中元素总数来确定。...这些不同类型时间序列预测任务在输入和输出维度上略有差异,都可以通过适当配置LSTM模型来实现。具体模型架构和训练方法可能会因任务类型和数据特点而有所不同。

46430

【深度学习 | LSTM】解开LSTM秘密:门控机制如何控制信息流

首先,我们将前一个隐藏状态和当前输入传递到 sigmoid 函数中,然后将新得到细胞状态传递给 tanh 函数。最后将 tanh 输出与 sigmoid 输出相乘,以确定隐藏状态携带信息。...在给定输入维度(64,32)和LSTM神经元数量32情况下,我们可以计算出以下参数: 输入维度:(64,32) 这表示每个时间步长(sequence step)输入特征维度32,序列长度...其中32是上一时间步隐藏状态大小,另外32是当前时间步输入维度。 偏置向量:形状(32,)向量。 遗忘门参数: 权重矩阵:形状(32,32 + 32)矩阵。...单元状态参数: 权重矩阵:形状(32,32 + 32)矩阵。 偏置向量:形状(32,)向量。 输出参数: 权重矩阵:形状(32,32)矩阵。将隐藏状态映射到最终输出维度。...这些不同类型时间序列预测任务在输入和输出维度上略有差异,都可以通过适当配置LSTM模型来实现。具体模型架构和训练方法可能会因任务类型和数据特点而有所不同。

73820

【CV中Attention机制】基于SENet改进-SKNet

(远近、大小目标会有不同效果。...因此,在此示例中,只有两个卷积核具有不同卷积核大小很容易扩展到多个分支情况。 Split-Fuse-Select核心模块 Split:对于任何给定特征映射 ?...,默认情况下,我们首先分别进行卷积大小3和5两个转换 ? 和 ? 。请注意, ? 和 ? 均由高效分组/深度卷积,批量标准化和ReLU函数组成。...实现这一目标,门需要整合来自所有分支信息。主要目的是计算得到每个卷积核权重部分。首先通过element-wise summation融合来自多个(上图是两个分支)分支结果: ?...然后得到U是形状是[C,H,W](C代表channel,H代表height, W代表width)特征图,然后沿着H和W维度求平均值,最终得到了关于channel信息是一个C×1×1一维向量,代表是各个通道信息重要程度

2.6K20

调教LLaMA类模型没那么难,LoRA将模型微调缩减到几小时

假设 W 表示给定神经网络层中权重矩阵。然后,使用常规反向传播,我们可以获得权重更新 ΔW,它通常被计算损失乘以学习率负梯: 然后,得到 ΔW 后,原始权重按如下公式更新:W'=W+ΔW。...因此,尽管预训练模型权重是满秩矩阵,根据 Aghajanyan 等人说法,LoRA 作者指出预训练大型语言模型在适应新任务时具有较低内在维度。...低内在维度意味着数据可以由低维度空间有效地表示或近似,同时保留其大部分基本信息或结构。换句话说,这意味着可以将适应任务权重矩阵分解低维(较小)矩阵,而不会丢失太多重要信息。...新矩阵 W_A 和 W_B 可以非常小。例如,假设 A=100,B=500,那么 ΔW 大小 100×500=50000。...给定以下超参数设置(块大小、批大小和 LoRA r),Adapter 和 LoRA 都可以以 bfloat-16 混合精度,在具有 24 Gb RAM 单个 GPU 上微调 7B 参数 LLaMA

76730

调教LLaMA类模型没那么难,LoRA将模型微调缩减到几小时

假设 W 表示给定神经网络层中权重矩阵。然后,使用常规反向传播,我们可以获得权重更新 ΔW,它通常被计算损失乘以学习率负梯: 然后,得到 ΔW 后,原始权重按如下公式更新:W'=W+ΔW。...因此,尽管预训练模型权重是满秩矩阵,根据 Aghajanyan 等人说法,LoRA 作者指出预训练大型语言模型在适应新任务时具有较低内在维度。...低内在维度意味着数据可以由低维度空间有效地表示或近似,同时保留其大部分基本信息或结构。换句话说,这意味着可以将适应任务权重矩阵分解低维(较小)矩阵,而不会丢失太多重要信息。...新矩阵 W_A 和 W_B 可以非常小。例如,假设 A=100,B=500,那么 ΔW 大小 100×500=50000。...给定以下超参数设置(块大小、批大小和 LoRA r),Adapter 和 LoRA 都可以以 bfloat-16 混合精度,在具有 24 Gb RAM 单个 GPU 上微调 7B 参数 LLaMA

1.4K20

训练深度神经网络失败罪魁祸首不是梯度消失,而是退化

起初,训练损失函数下降得很快,很快渐进地收敛于一个次优值。此时,梯度并没有消失(或爆炸),至少在初始阶段。...直观地说,学习曲线基本上会在参数空间退化方向变慢,因此退化会减少模型有效维度。在以前,你可能会认为是用参数拟合模型,实际上,由于退化,可以有效地拟合模型自由度却变少了。...可以理解在每个层中只有少量隐藏单元对不同输入改变它们激活值,而大部分隐藏单元对不同输入都是相同反应)。...在非线性网络中也会出现类似的现象:随着深度增加,给定隐藏单元维度变得越来越低,即越来越退化。...这样一些奇异性已经在以前工作中得到证明:(i)给定层级结点中置换对称性(permutation symmetry)造成了重叠奇异性,(ii)消除(elimination)与对应消除奇异性,即结点一致性失活问题

1.3K60

等保测评2.0:Oracle安全审计

测评项 b)审计记录包括事件日期和时间、用户、事件类型、事件是否成功及其他与审计相关信息; c)应对审计记录进行保护,定期备份,避免受到未预期删除、修改或覆盖等; d)应对审计进程进行保护,防止未经授权中断...测评项b b)审计记录包括事件日期和时间、用户、事件类型、事件是否成功及其他与审计相关信息; 审计记录应该包含足够信息,对于数据库审计而言而言,包含具体SQL语句是必须。...数据库表中记录 如果audit_trail参数设置db或db,extended,则其记录存放在数据库表中。...dba_audit_session视图,所得到数据都是有关logon或者logoff信息: ?...所以具体到测评项判定而言,默认情况下至少判定为部分符合,根据具体情况再选择是否判定为符合。 ?

7.1K10

以太坊开发实战(第四部分:代币及ERC标准)

现在,当您使用2位小数时,“123456”值将为“1234.56”令牌,如果使用4位小数,则“123456”“12.3456”。 当你不希望你令牌是“可分割”时,可以使用0作为小数位数。 ...ERC721提案中“transfer()”函数将为令牌设置一个新所有者: image.png 这个代码虽然较长,这是移动令牌一个必要步骤。...在IPFS上添加文件时,至少会在连接到IPFS网络一台计算机上始终可用。 虽然可以在IPFS或HTTP链接上访问该文件供所有人查看,但是“所有权证书”智能在智能合同中注册。...ERC821和ERC841试图达到相同目标,采用方法方法有点不同,并且两者都尚未完善,如果您有宝贵意见,可以围绕这两个潜在标准加入讨论。...虽然没有标准方法来实现这一点,你会发现在OpenZepplin回购会得到一个很好实现。 此外,在以太坊网站上有一个简单教程。

2K120

【论文笔记】张航和李沐等提出:ResNeSt: Split-Attention Networks(ResNet改进版本)

这意味着要提高给定计算机视觉任务性能,需要“网络手术”来修改ResNet,以使其对特定任务更加有效。...虽然这些方法确实可以提高某些任务学习性能,由此而提出了一个问题:我们是否可以创建具有通用改进功能表示通用骨干网,从而同时提高跨多个任务性能?...通道权重统计量可以通过全局平均池化获得: ? 用Vk表示携带了通道权重Cardinal输出: ? 那么最终每个Cardinal输出就是: ? 而其中 ?...5、残差网络存在问题 (1)残差网络使用带步长卷积,比如3×3卷积来减少图像空间维度,这样会损失掉很多空间信息。对于像目标检测和分割领域,空间信息是至关重要。...而且卷积层一般使用0来填充图像边界,这在迁移到密集预测其它问题时也不是最佳选择。因此本文使用是核大小3×3平均池化来减少空间维度

1.3K30

SBT 综述

正如《去中心化社会:寻找 Web3 灵魂》开宗明义第一句话,今天(基于以太坊) Web3 更多是一个以表达可转移金融化资产(“契约”)中心概念,而非表达基于信任社会关系(“身份”)概念。...通过智能合约得到状态(资产,Asset),只能通过智能合约去改变。因此,当前区块链与 Web3 中契约身份(Contract Status),只能包含由智能合约产生状态(资产)。...3.3 ERC721S (SoulBound) ERC721S[15] 发布于 2022 年 6 月 3 日,在 5 月份 SBT 论文发表之后,目前尚未见到 Reference Implementation...该提案兼容 ERC-721每一个地址关联了一个 soulPower 数量参数,可用来量化贡献度或表示积分;同时,每一个地址还关联有 isSybil 变量,用以标识机器人账户或女巫攻击。...有关该标准更多细节,需要等待完整版 EIP 文档提交之后。 *** 前述这些 SBT 通证标准提案,所实现基本都是以 ERC-721 基础非匀质化通证。

98720

第三课 以太坊术语说明及开发者资源列表

就像是开车去某个目的地一样,gasPrice就是油价,油箱大小就是gasLimit,油够,到达目的地多余油会留在油箱里面,也就是转账成功,多余油费会返回账户。...因此谜恋猫也是第一个实现了ERC721 标准去中心化应用。ERC721号提议已经被以太坊作为标准接受,该标准仍处于草稿阶段。...ERC721同样是一个代币标准,ERC721官方简要解释是Non-Fungible Tokens,简写NFTs,多翻译为非同质代币。...),矿工或应用维护节点需要得到代币奖励; 4、应用代币产生必须依据标准加密算法,有价值节点可以根据该算法获取应用代币奖励。...相比较于比特币最长链共识, DAG 将最长链共识改成最重链共识机制, 通过交易权重与节点间建立局部共识来确认新交易,将工作量证明巧妙和每一笔交易绑定一起,不但打破了目前比特币挖矿集中化问题,而且大幅度提升了整个分布式网络吞吐能力

69720

贝叶斯自举法Bayesian Bootstrap

当我们重新抽样时,我们所做其实就是给我们观察值分配整数权重,这样它们和就等于样本容量n。这样分布就是多项式分布。 我们绘制大小10.000样本来看看多项式分布是什么样子。...1000,或者说,我们重采样生成了是一个相同大小数据。...,而一些观察得到权重为6。...我们可以画出权重分布,现在为了得到了连续权重,我们必须近似分布。...如果我们更仔细地查看就会发现在将近20个重新采样样本中,会得到一个非常不寻常估计! 这个问题原因是在某些样本中,我们可能没有任何观察结果x = 1。因此在这些重采样样本中,估计系数零。

65310

每日一学——线性分类笔记(中)

损失函数 Loss function 在上一节定义了从图像像素值到所属类别的评分函数(score function),该函数参数是权重矩阵 。在函数中,数据 是给定,不能修改。...这一对类别分数和标签损失值是0,这是因为正确分类得分13与错误分类得分-720,高于边界值10。而SVM只关心差距至少要大于10,更大差值还是算作损失值0。...一个简单例子:如果W能够正确分类所有数据,即对于每个数据,损失值都是0。那么当 时,任何数乘 都能使得损失值0,因为这个变化将所有分值大小都均等地扩大了,所以它们之间绝对差值也扩大了。...最后,因为正则化惩罚存在,不可能在所有的例子中得到0损失值,这是因为只有当W=0特殊情况下,才能得到损失值0。...最后,因为正则化惩罚存在,不可能在所有的例子中得到0损失值,这是因为只有当特殊情况下,才能得到损失值0。

51350

教程 | CMU研究者探索新卷积方法:在实验中可媲美基准CNN(附实验代码)

假设卷积维度是(核大小,核大小,输入通道,输出通道),那么其中矩阵维度是(核大小×核大小×输入通道,输出通道)。...更具体一点,对于一个维度 (m, n) 卷积矩阵, m 个维度每一个创造 n 个向量。...如果你必须沿该过滤器创建一个偏置,仍然可以执行上面的流程,只是其中用 m+1 代替 m,得到矩阵大小 (m+1, n),取出最上面一行,并将其用作偏置,使用剩下 (m, n) 矩阵作为过滤器。...正交性损失是按以下方式计算: 使卷积矩阵大小 (m, n),偏置向量大小 (n),将这两个向量级联到一起,得到一个大小 (m+1, n) 矩阵。称这个矩阵 M。...在验证数据上交叉熵和准确度 该网络得到验证准确度/交叉熵却很接近正交性损失 0 情况。又再一次失望了,我还希望结果会更好呢。但至少比前面的结果好。

683100
领券