前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >是chatgpt还是微信AI?告诉你如何申请微信AI-WeLM的密钥

是chatgpt还是微信AI?告诉你如何申请微信AI-WeLM的密钥

作者头像
PHP学习网
发布2023-06-19 15:35:50
2820
发布2023-06-19 15:35:50
举报
文章被收录于专栏:PHP学习网PHP学习网

PHP学习网将不定时分享优质开源项目,优质技术文章,精选面试题和资源,大家可以把PHP学习网设为🌟星标,第一时间获取最新推送,以防错过优质内容

chatgpt已经从年前到现在已经火出了天际,直接颠覆了整个行业,于是乎各个大厂开始入局,比速度,目前质量上会往后靠,先从无到有的折腾。chatgpt说实在的有点惭愧,我没有申请账号, 不过呢偶然在群里看到大家分享微信的AI,WELM,于是我就申请了token,具体怎么样还不知道,不过可以先把申请步骤告诉大家。

welm介绍

官网介绍WeLM 提供续写功能,但并不具有原生对话能力,WeLM 是一个非常擅长理解和生成文本的通用语言模型。你可以通过调用 WeLM 的 API 解决多种多样涉及文本的任务。

举例说明

如果你给的 prompt 是

代码语言:javascript
复制
我今天很

模型也许会返回文本:“开心,因为看了一本书。”。

如果你给的 prompt 是,

代码语言:javascript
复制
问题:百年孤独的作者是?\n 回答:

模型也许会返回文本:“加西亚·马尔克斯”。

申请方法

步骤一:登录官网

步骤二:填写问卷调查

我这里使用了QQ邮箱,但是需要等待,时间有点长,我从申请到收到邮件大概半天吧。

申请成功邮件

PHP调用

代码语言:javascript
复制
function query_api($prompt, $model, $max_tokens, $temperature, $top_p, $top_k, $n, $echo, $stop, $token) 
{

    $url = "https://welm.weixin.qq.com/v1/completions";
    $data = array(
    "prompt" => $prompt,
    "model" => $model,
    "max_tokens" => $max_tokens,
    "temperature" => $temperature,
    "top_p" => $top_p,
    "top_k" => $top_k,
    "n" => $n,
    "echo" => $echo,
    "stop" => $stop
    );
    $data = json_encode($data);
 
    $headers = array(
        "Content-Type: application/json",
        "Authorization: Bearer " . $token
    );
 
    $curl = curl_init();
    
    curl_setopt_array($curl, array(
    CURLOPT_URL => $url,
    CURLOPT_RETURNTRANSFER => true,
    CURLOPT_ENCODING => "",
    CURLOPT_MAXREDIRS => 10,
    CURLOPT_TIMEOUT => 30,
    CURLOPT_HTTP_VERSION => CURL_HTTP_VERSION_1_1,
    CURLOPT_CUSTOMREQUEST => "POST",
    CURLOPT_POSTFIELDS => $data,
    CURLOPT_HTTPHEADER => $headers,
    ));
    
    $response = curl_exec($curl);
    $err = curl_error($curl);
    
    curl_close($curl);
    
    if ($err) 
    {
        echo "请求失败: " . $err;
        return null;
    } 
    else 
    {
        $result = json_decode($response, true);
        return $result;
    }
}
 

$prompt = "测试";
$model = "xl";
$max_tokens = 16;
$temperature = 0.0;
$top_p = 0.0;
$top_k = 10;
$n = 1;
$echo = false;
$stop = ",,.。";
$token = "你的token";
 
$result = query_api($prompt, $model, $max_tokens, $temperature, $top_p, $top_k, $n, $echo, $stop, $token);

Request body

model: string 必选,要使用的模型名称,当前支持的模型名称有medium、 large 和 xl

prompt: string 可选,默认值空字符串,给模型的提示

max_tokens: integer 可选,最多生成的token个数,默认值 16

temperature: number 可选 默认值 0.85,表示使用的sampling temperature,更高的temperature意味着模型具备更多的可能性。对于更有创造性的应用,可以尝试0.85以上,而对于有明确答案的应用,可以尝试0(argmax采样)。建议改变这个值或top_p,但不要同时改变。

top_p: number 可选 默认值 0.95,来源于nucleus sampling,采用的是累计概率的方式。即从累计概率超过某一个阈值p的词汇中进行采样,所以0.1意味着只考虑由前10%累计概率组成的词汇。建议改变这个值或temperature,但不要同时改变。

top_k: integer 可选 默认值50,从概率分布中依据概率最大选择k个单词,建议不要过小导致模型能选择的词汇少。

n: integer 可选 默认值 1 返回的序列的个数

echo: boolean 可选 默认值false,是否返回prompt

stop: string 可选 默认值 null,停止符号。当模型当前生成的字符为stop中的任何一个字符时,会停止生成。若没有配置stop,当模型当前生成的token id 为end_id或生成的token个数达到max_tokens时,停止生成。合理配置stop可以加快推理速度、减少quota消耗。

Response

代码语言:javascript
复制
{
"id":"25ade274-2f8a-11ed-8c3d-1767c0ccef73",
"object":"text_generation",
"created":1662650590,
"model":"xl",
"choices":[
{
"text":"测试结果",
"index":0,
"logprobs":0,
"finish_reason":"finished",
}
]
}

状态码

当请求出现错误时,通过校验http state code 可以查看错误原因

超时:504

服务不可用:503

用户prompt命中敏感词:400, finish_reason: “error: content policy violation”

生成结果命中敏感词:200, finish_reason: “error: internal error”

用户输入参数不合法:400, finish_reason返回原因

配额超限制:429, response body: “quota limit exceed”

请求频率超限制:429, response body: “rate limit exceeded”

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2023-03-08,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 PHP学习网 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • welm介绍
  • 举例说明
  • 申请方法
  • 申请成功邮件
  • PHP调用
  • Request body
  • Response
  • 状态码
相关产品与服务
腾讯云服务器利旧
云服务器(Cloud Virtual Machine,CVM)提供安全可靠的弹性计算服务。 您可以实时扩展或缩减计算资源,适应变化的业务需求,并只需按实际使用的资源计费。使用 CVM 可以极大降低您的软硬件采购成本,简化 IT 运维工作。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档