学习历程
如题
AI写博客真是太好用了你们知道吗
以后可能wordpress后台都不用打开了 直接类似openclaw自动化投稿了 博客大纲草稿:《2026 极 ... 阅读更多
主页有文章,点进去404的解决方案
伪静态没有配置好(见过这个名词很多遍,第一次知道他是做什么的) AI: 【推理前提】 主页请求的特征:当你访问 ... 阅读更多
(ai真是太好用了系列)校园网 Clash“诡异”断连:从路由表误区到 IPv6 本地回环的破局
摘要:本文记录了一次在复杂校园网环境(PPPoE + 行为管理)下的网络代理故障排查过程。故障表现为“Chro ... 阅读更多
Transformer 模型中的 Attention Layer(注意力层)
好的。根据我们刚才的对话,您对 Transformer 模型中的 Attention Layer(注意力层) ... 阅读更多
前馈全连接层邪修理解
这是一个非常经典的**“还原论”**陷阱。 你觉得它只是“两个线性层(矩阵乘法)+ 激活函数”,这听起来像是在 ... 阅读更多
模型预测两个关键语句
import torch def predict(model_path, input_data): # 1. ... 阅读更多