随着最近一个新的人工智能deepseek的爆火,很多大佬都开始了在本地进行deepseek的部署操作,并且离线也可以使用,这里的话我就一步一步带你们部署本地的deepseek,说实话这个人工智能的实力不亚于open ai 的gpt
ollama -v
查看是否安装成功,输入完命令出现了版本号的话就说明你安装成功了
接下来我们进行部署DeepSeek R1模型的操作
模型 | 参数 (B) | VRAM 要求 (GB) | 推荐 GPU |
---|---|---|---|
DeepSeek - R1 - Zero | 671B | ~1,342 GB | 多 GPU 配置(例如,NVIDIA A100 80GB x16) |
DeepSeek - R1 | 671B | ~1,342 GB | 多 GPU 配置(例如,NVIDIA A100 80GB x16) |
DeepSeek - R1 - Distill - Qwen 1.5B | 1.5B | ~0.75 GB | NVIDIA RTX 3060 12GB 或更高 |
DeepSeek - R1 - Distill - Qwen 7B | 7B | ~3.5 GB | NVIDIA RTX 3060 12GB 或更高 |
DeepSeek - R1 - Distill - Llama 8B | 8B | ~4 GB | NVIDIA RTX 3060 12GB 或更高 |
DeepSeek - R1 - Distill - Qwen 14B | 14B | ~7 GB | NVIDIA RTX 3060 12GB 或更高 |
DeepSeek - R1 - Distill - Qwen 32B | 32B | ~16 GB | NVIDIA RTX 4090 24GB |
DeepSeek - R1 - Distill - Llama 70B | 70B | ~35 GB | 多 GPU 配置(例如,NVIDIA RTX 4090 x2) |
/bye
来退出对话
ollama list
重新查看我们已经下载好了的模型,那么我们可以发现这里的R1 7B是我们刚刚下载好的模型
ollama run deepseek-r1:latest
我们就能重新进入到对话了,这里我们简单进行对话下,可以发现效果还是挺ok的
olloma list
可以看到我们下载的模型,然后将我们的R1模型名称进行复制,然后输入命令ollama rm deepseek-r1:latest
然后就可以将我们本地的删除了
好的!以下是使用冒泡排序算法对一个整数数组进行排序的Python实现:
def bubble_sort(arr):
n = len(arr)
for i in range(n-1):
# 如果已经有序,提前退出
already_sorted = True
for j in range(n - 1 - i):
if arr[j] > arr[j+1]:
# 交换元素位置
arr[j], arr[j+1] = arr[j+1], arr[j]
already_sorted = False
if already_sorted:
break
# 示例数组
arr = [5, 4, 3, 2, 1]
bubble_sort(arr)
print("排序后:", arr)
bubble_sort(arr)
接受一个整数数组 arr
作为输入。for i in range(n-1)
,其中 n
是数组的长度。这个循环控制整个数组的大致范围。already_sorted = True
,如果在某一趟排序中没有发生交换,则说明数组已经有序,提前退出。for j in range(n - 1 - i)
,用于比较相邻的元素,并进行交换。if arr[j] > arr[j+1]
,如果当前元素大于下一个元素,则交换它们的位置。arr = [5, 4, 3, 2, 1]
,用于测试排序算法。arr
调用 bubble_sort()
函数,并打印排序后的结果。运行这段代码后,输出将是:
排序后: [1, 2, 3, 4, 5]
冒泡排序的时间复杂度为 O(n²),适用于小规模数据的排序。
这里其实是可以自定义模型的,但是这里我就不过多进行叙述了,因为我们上面这个就够用了。 这个自定义的话就是你让这个deepseek带入一个角色,你让他是一个医生,然后他就会以医生的视角回答你所询问的问题
那么在平常的代码问题,我们对可以询问我们本地部署的这个deepseek,十分方便呢
感觉这个deepseek的话对图片的分析还是差点意思