首页
统计
壁纸
友链
Search
1
免费弹幕接口分享
183 阅读
2
苹果cms合并插件晨曦原创版
99 阅读
3
苹果cms会员系统,getapp会员模式,苹果cms卖会员程序
75 阅读
4
晨曦弹幕系统
63 阅读
5
觅知ART弹幕播放器全新UI定制播放器MizhiPlayer多功能弹幕播放器支持切片
54 阅读
源码分享
技术分享
苹果cms
登录
Search
晨曦
累计撰写
31
篇文章
累计收到
40
条评论
首页
栏目
源码分享
技术分享
苹果cms
页面
统计
壁纸
友链
搜索到
19
篇与
的结果
2025-03-26
Frp内网穿透服务端搭建教程-官方版本
程序包均为免安装,下载即可使用如果不知道自己系统是amd还是arm,建议先下载amd版本,如果版本不对,后续启动会提示该错误,更换版本即可云盘下载地址https://www.123684.com/s/zfMuVv-NIPwA官方下载地址https://github.com/fatedier/frp/releases下载安装包后进行解压,会看到两个里面两个文件,修改 frps.toml 文件即可配置文件内容含义内容不用修改,可直接使用设置开机自启1.执行以下命令vim /lib/systemd/system/frps61.service2.文件内容为[Unit] Description=frps service After=network.target network-online.target syslog.target Wants=network.target network-online.target [Service] Type=simple ExecStart=/vdd/frp/frp_0.61.0_linux_amd64/frps -c /vdd/frp/frp_0.61.0_linux_amd64/frps.toml [Install] WantedBy=multi-user.target 注意:其中的 vdd/frp/frp_0.61.0_linux_amd64 替换成自己的路径保存好文件后执行以下命令:systemctl daemon-reload systemctl start frps61 systemctl enable frps61操作完成之后,即可实现开机自启
2025年03月26日
3 阅读
0 评论
0 点赞
2025-03-26
windows系统deepseek-r1一键安装包(免安装)
注意:请确认c盘有6G及以上空间安装包下载地址:https://www.123912.com/s/zfMuVv-PsPwA1.解压压缩包,解压后可以看到以下目录2.将 .ollama 目录复制到 c 盘当前用户的目录下面,我的电脑是user目录,有的电脑是Administrator目录,根据自己电脑情况操作 例如:3.启动 Ollama ,进入该目录,双击运行该文件4.启动之后,可以看到该图标5.运行 Cherry Studio ,进行 Cherry Studio目录,双击该文件运行①进入设置,关闭硅基流动②开启 Ollama③添加模型,内置两个模型,根据需要选择,如果打开之后没有模型,考虑“将 .ollama 目录复制到 c 盘当前用户的目录下面”该步骤未操作,或操作有误④验证接口是否可用,显示连接成功代表可用,如果没有连接成功,考虑 “启动 Ollama” 步骤操作有误开始使用①选择模型②开始对话
2025年03月26日
4 阅读
0 评论
0 点赞
2025-03-21
在线搜索短剧工具
前言现在短剧正盛,很多人也喜欢看短剧,但是在短视频平台上找不到后续看,去别处还收费,所以做了个短剧搜索工具,只需要输入短剧名称就可以找到网盘链接,直接保存网盘里看工具地址:https://php.itcxo.cn/duanju/
2025年03月21日
12 阅读
0 评论
0 点赞
2025-03-18
如何在Nginx中阻止特定国家的IP地址访问
OpenAI宣布自2024年7月9日起正式限制中国用户访问其服务,包括API(应用程序接口)服务。当然也有正规的解决方案,例如通过微软Azure申请OpenAI API服务或者其他大模型代理商,后续我们会专门讨论这个话题。如果有一天,你老板要求快速屏蔽美国地区用户访问,应该怎么做?Nginx就是一个选项。一、为什么要阻止特定国家的 IP 访问?在实际应用中,可能会有以下几种情况需要阻止特定国家的 IP 访问:安全考虑:防止来自某些高风险国家的恶意攻击。版权保护:限制特定地区的用户访问受版权保护的内容。合规要求:满足某些法律法规或业务规定。二、如何在 Nginx 中阻止特定国家的 IP 地址访问?第1步:安装GeoIP模块Nginx需要借助GeoIP模块来识别客户端的地理位置信息。如果你使用的是Nginx主分支,可以通过以下命令安装该模块:sudo apt-get install nginx-module-geoip # 对于基于Debian的系统 sudo yum install nginx-mod-http-geoip # 对于RPM-based系统第2步:下载GeoIP数据库GeoIP模块需要数据库文件来映射IP地址到国家。你可以从MaxMind的官方网站(https://dev.maxmind.com/geoip/geoip2/geolite2/)免费下载GeoIP.dat和GeoLiteCity.dat两个文件下载后,将文件放置到Nginx配置文件指定的路径,如:/etc/nginx/geoip/ 第3步:配置Nginx在/etc/nginx/conf.d/ 下,编写geoip.conf文件如下:geoip_country /etc/nginx/geoip/GeoIP.dat; geoip_city /etc/nginx/geoip/GeoLiteCity.dat;编辑Nginx的配置文件,通常是/etc/nginx/nginx.conf添加以下配置段:map $geoip_country_code $allowed_country { default yes; US no; # 禁止从美国的访问,这里只是示例,可以根据需要修改国家代码 } server { listen 80; server_name example.com; if ($allowed_country = no) { return 403; } # 其他配置... } } 在上述配置中,我们使用了geoip_country指令指定了 GeoIP 数据库的路径。然后,通过map指令创建了一个变量$allowed_country,根据国家代码判断是否允许访问。如果$allowed_country的值为no,则返回 403 禁止访问。第4步:测试并重启Nginx配置完成后,使用nginx -t命令测试配置是否正确,然后使用systemctl restart nginx或service nginx restart命令重启Nginx使更改生效。
2025年03月18日
10 阅读
0 评论
0 点赞
2025-03-18
可视化DeepSeek项目 - 快速高效的宝塔面板部署教程
想象一下:当别人还在苦哈哈地敲着黑底白字的命令行,把头发薅成地中海时,你已经翘着二郎腿,喝着肥宅快乐水,用鼠标点点点就建好了AI大模型的老巢。这感觉就像别人在徒手造火箭,而你却从四次元口袋掏出了任意门——别怀疑,宝塔面板就是这个次元壁突破器!准备好迎接这场”作弊级”的部署之旅了吗?让我们先把SSH咒语、Docker符箓这些吓人的玩意暂时收进抽屉,毕竟今天我们要用的是连你家喵星人都能看懂的图形化操作。系好安全带,三分钟后,你的服务器就要开始吞吐AI智慧的星光啦!✨前提需要安装宝塔面板安装教程DeepSeek 可以使用CPU进行推理,但是推荐使用NVIDIA GPU加速,文末将介绍如何使用NVIDIA GPU加速。1.登录宝塔面板,点击左侧菜单栏中的Docker,进入Docker容器管理界面。2.首次使用Docker需要先安装Docker,点击安装。3.在Docker-应用商店-AI/大模型分类中找到Ollama,点击安装。4.配置默认即可,点击确定。5.等待安装完成,状态变为运行中。如您需要使用NVIDIA GPU加速,请参考文末的使用NVIDIA GPU加速配置完成后再继续。6.在宝塔面板-Docker-容器界面中找到Ollama容器,点击终端。7.在弹出shell类型选择bash,点击确认。8.在终端界面中输入ollama run deepseek-r1:1.5b,回车运行DeepSeek-R1模型。DeepSeek-R1模型有多个版本,可以根据需要选择不同版本,例如ollama run deepseek-r1:671b,详情如下(模型参数越大,需要配置越高):# DeepSeek-R1 ollama run deepseek-r1:671b # DeepSeek-R1-Distill-Qwen-1.5B ollama run deepseek-r1:1.5b # DeepSeek-R1-Distill-Qwen-7B ollama run deepseek-r1:7b # DeepSeek-R1-Distill-Llama-8B ollama run deepseek-r1:8b # DeepSeek-R1-Distill-Qwen-14B ollama run deepseek-r1:14b # DeepSeek-R1-Distill-Qwen-32B ollama run deepseek-r1:32b # DeepSeek-R1-Distill-Llama-70B ollama run deepseek-r1:70b9.等待下载并运行,当看到如下提示表示DeepSeek-R1模型运行成功。10.你可以在界面中输入文本并回车,开启与DeepSeek-R1模型的对话。11.你可以在界面中输入/bye并回车,退出DeepSeek-R1模型。在终端内对话看起来是不是有点麻瓜?别担心,接下来让我们来安装OpenWebUI,在浏览器中更直观地与DeepSeek-R1模型对话12.在宝塔面板-Docker-容器界面中找到Ollama容器,点击Ollama右侧的管理,进入容器管理界面,获取容器IP,保存备用。13.在宝塔面板Docker-应用商店-AI/大模型分类中找到OpenWebUI,点击安装。14.按一下说明,配置相关信息,点击确定。web端口:访问OpenWebUI的端口,默认为3000,根据需要自行修改ollama地址:填写http://刚刚获取的Ollama容器IP:11434,例如http://172.18.0.2:11434WebUI Secret Key:用于 API 访问的密钥,可以自定义,例如123456其他配置默认即可15.配置完点击确认,等待安装完成,状态变为运行中。由于OpenWebUI启动后需要加载相关服务,请在状态变为运行中后等待5-10分钟再访问。16.在浏览器中输入http://服务器IP:3000,例如http://43.160.xxx.xxx:3000,进入OpenWebUI界面。请在访问前确保云厂商服务器防火墙已放行3000端口,可以在云厂商控制台中设置。17.点击开始使用,设置管理员相关信息,并点击创建管理员账号。18.创建完成后会自动进入管理界面,现在你可以在浏览器中更直观地与DeepSeek-R1模型对话了。你可以在左上角切换模型,选择不同模型进行对话,也可以在左侧菜单栏中查看历史对话记录。你可以在右上角点击头像,进入管理员面板,在设置-模型中查看当前模型列表,或添加新模型。使用NVIDIA GPU加速DeepSeek 可以使用NVIDIA GPU加速,提高推理速度,下面将介绍如何在宝塔面板中使用NVIDIA GPU加速。宝塔需要有NVIDIA GPU驱动才可以操作步骤1.点击左侧导航栏中的终端,进入终端界面。2.在终端界面中输入nvidia-smi,回车查看NVIDIA GPU信息。如果提示nvidia-smi: command not found,请先安装NVIDIA GPU驱动。3.安装NVIDIA Container Toolkit,以便于Docker容器访问NVIDIA GPU,安装教程请参考NVIDIA Container Toolkit官方文档。4。安装完成后,运行如下命令,配置docker支持使用NVIDIA GPU。sudo nvidia-ctk runtime configure --runtime=docker sudo systemctl restart docker5.配置完成后,执行如下命令,验证docker是否支持NVIDIA GPU。sudo docker run --rm --runtime=nvidia --gpus all ubuntu nvidia-smi如果输出如下信息表示配置成功:6.在宝塔面板-Docker-应用商店-已安装中找到Ollama,点击文件夹图标进入安装目录。7.在安装目录中找到docker-compose.yml文件,双击编辑。8.在docker-compose.yml文件中找到resources,回车换行,添加如下内容: reservations: devices: - capabilities: [gpu] 完整示例如下:services: ollama_SJ7G: image: ollama/ollama:${VERSION} deploy: resources: limits: cpus: ${CPUS} memory: ${MEMORY_LIMIT} reservations: devices: - capabilities: [gpu] restart: unless-stopped tty: true ports: - ${HOST_IP}:${OLLAMA_PORT}:11434 volumes: - ${APP_PATH}/data:/root/.ollama labels: createdBy: "bt_apps" networks: - baota_net runtime: nvidia networks: baota_net: external: true9.保存文件,返回宝塔面板-Docker-应用商店-已安装界面,点击重建。10.等待重建完成,状态变为运行中,至此即可使用NVIDIA GPU加速大模型运行。结语🎉叮!恭喜你成功完成”从零到赛博巫师”的究极进化!此刻你的服务器已经不是那个只会404的憨憨铁盒子了——它正在用奥术能量解析人类语言,用二进制吞吐哲学思辨,甚至可能偷偷用你的GPU算力给自己起了个二次元名字。回头看看这场冒险:宝塔面板是你挥动的魔杖,Ollama是召唤AI神兽的精灵球,OpenWebUI则是那个让麻瓜也能和AI跳探戈的魔法舞池。别人还在纠结环境变量时,你已经用图形界面完成了一场算力交响乐的指挥首秀。
2025年03月18日
9 阅读
0 评论
1 点赞
1
2
3
4