<?xml version='1.0' encoding='UTF-8'?>
<rss xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/" version="2.0"><channel><title>Purple Donut的博客</title><link>https://PeekaQiu.github.io/3checktheerror.github.io</link><description>I Don’t Finish. I Wander.</description><copyright>Purple Donut的博客</copyright><docs>http://www.rssboard.org/rss-specification</docs><generator>python-feedgen</generator><image><url>https://github.githubassets.com/favicons/favicon.svg</url><title>avatar</title><link>https://PeekaQiu.github.io/3checktheerror.github.io</link></image><lastBuildDate>Mon, 06 Apr 2026 03:29:38 +0000</lastBuildDate><managingEditor>Purple Donut的博客</managingEditor><ttl>60</ttl><webMaster>Purple Donut的博客</webMaster><item><title>算法总结</title><link>https://PeekaQiu.github.io/3checktheerror.github.io/post/suan-fa-zong-jie.html</link><description>&lt;img width='750' height='515' alt='Image' src='https://github.com/user-attachments/assets/bb112152-053c-46de-9034-54cac5d509dc' /&gt;

&lt;img width='745' height='610' alt='Image' src='https://github.com/user-attachments/assets/7c22d77a-4080-449b-afc8-833308abcc8a' /&gt;

&lt;img width='742' height='657' alt='Image' src='https://github.com/user-attachments/assets/901f002e-4b91-48eb-93f5-e5ad98e1a63c' /&gt;

&lt;img width='734' height='721' alt='Image' src='https://github.com/user-attachments/assets/8291d802-efd6-4202-afc0-4ba2f3cab14d' /&gt;

&lt;img width='749' height='923' alt='Image' src='https://github.com/user-attachments/assets/16c3a898-91e4-4dfe-bde2-ea5b7c45bec7' /&gt;

&lt;img width='766' height='576' alt='Image' src='https://github.com/user-attachments/assets/01981ae1-efc2-4658-a25d-c98a7b58a80e' /&gt;。</description><guid isPermaLink="true">https://PeekaQiu.github.io/3checktheerror.github.io/post/suan-fa-zong-jie.html</guid><pubDate>Mon, 06 Apr 2026 03:29:04 +0000</pubDate></item><item><title>算法原理篇</title><link>https://PeekaQiu.github.io/3checktheerror.github.io/post/suan-fa-yuan-li-pian.html</link><description># GCBC

## 输入输出

**输入**：
- 专家轨迹数据集 $\mathcal{D} = \{ \tau^1, \tau^2, \dots, \tau^N \}$
- 其中每条轨迹 $\tau = \{(s_0, a_0, s_1), (s_1, a_1, s_2), \dots, (s_T, a_T, s_{T+1})\}$
- 策略网络 $\pi_\theta(a|s, g)$ 和初始参数 $\theta$

**输出**：
- 训练好的目标条件策略 $\pi_\theta$

## 流程

1. **采样**一条专家轨迹。</description><guid isPermaLink="true">https://PeekaQiu.github.io/3checktheerror.github.io/post/suan-fa-yuan-li-pian.html</guid><pubDate>Fri, 03 Apr 2026 10:26:21 +0000</pubDate></item><item><title>有意思的话题</title><link>https://PeekaQiu.github.io/3checktheerror.github.io/post/you-yi-si-de-hua-ti.html</link><description>### 模型架构
[Residual Connections](https://x.com/_avichawla/status/2033472650836914495)

### 模型工具
[vLLM](https://www.youtube.com/watch?v=McLdlg5Gc9s)
[KV Cache原理](https://www.youtube.com/watch?v=80bIUggRJf4)
[vLLM流程Visualize](https://www.youtube.com/watch?v=QyHHbeXqgrQ&amp;t=3034s)
[Pretraining, SFT, DL的关系](https://www.youtube.com/watch?v=7xTGNNLPyMI)

### MCP通信
[MCP通信](https://www.youtube.com/watch?v=IjISe8ThHvY)



。</description><guid isPermaLink="true">https://PeekaQiu.github.io/3checktheerror.github.io/post/you-yi-si-de-hua-ti.html</guid><pubDate>Wed, 18 Mar 2026 04:18:20 +0000</pubDate></item><item><title>Part1-多源链上数据接入</title><link>https://PeekaQiu.github.io/3checktheerror.github.io/post/Part1--duo-yuan-lian-shang-shu-ju-jie-ru.html</link><description>## 1. 为什么要把数据放在 Kafka 和 Redis 分开存储？
先说结论：

这个项目不是“随便用了两个中间件”，而是根据两类数据的业务特征，做了明确分工：

- `Kafka`：承接更偏“区块级、批量、可回放、可重消费”的数据
- `Redis PubSub`：承接更偏“低延迟、实时、轻量、直接推送”的数据

这背后的核心不是技术偏好，而是链上监控场景里两种完全不同的数据形态。</description><guid isPermaLink="true">https://PeekaQiu.github.io/3checktheerror.github.io/post/Part1--duo-yuan-lian-shang-shu-ju-jie-ru.html</guid><pubDate>Mon, 16 Mar 2026 06:00:57 +0000</pubDate></item><item><title>业务逻辑：钱包/信号跟单</title><link>https://PeekaQiu.github.io/3checktheerror.github.io/post/ye-wu-luo-ji-%EF%BC%9A-qian-bao---xin-hao-gen-dan.html</link><description>### 总体概览

**钱包跟单相关代码主要在 `apps/debot_monitor_center` 下，分三大块：**

- **配置层**：从 Mongo `dt_copy_order_task` 读取并维护“跟单任务”与钱包映射。</description><guid isPermaLink="true">https://PeekaQiu.github.io/3checktheerror.github.io/post/ye-wu-luo-ji-%EF%BC%9A-qian-bao---xin-hao-gen-dan.html</guid><pubDate>Mon, 16 Mar 2026 03:30:27 +0000</pubDate></item><item><title>技术细节：Processor逻辑</title><link>https://PeekaQiu.github.io/3checktheerror.github.io/post/ji-shu-xi-jie-%EF%BC%9AProcessor-luo-ji.html</link><description>## 架构
* 基于责任链思想实现的顺序处理流水线
* 把所有处理步骤抽象成 Processor 接口，按注册顺序组成一条链，上一步的输出就是下一步的输入
* 某一步返回 nil 就会提前终止后续处理
* 这个结构借鉴了责任链模式，但更多是用来做数据处理流水线而不是纯粹的“谁负责处理请求”的场景

## 重要Processor
从你现在的理解深度来看，要把这个项目的**主要业务场景都吃透**，重点把下面这几条“主链路”里的 Processor 搞清楚就够了（按重要性和典型性排序）：

### 一、EVM 区块处理链（链上原始数据 → 结构化行为 + DEX 特征）

文件：`tasks/evm_block_process/main.go`

重点 Processor：

1. **`BlockTxDecodeProcessor`**  
   - 作用：把原始区块/交易日志解码成项目内部通用结构（包含 tx、logs、actions 的骨架）。</description><guid isPermaLink="true">https://PeekaQiu.github.io/3checktheerror.github.io/post/ji-shu-xi-jie-%EF%BC%9AProcessor-luo-ji.html</guid><pubDate>Mon, 16 Mar 2026 03:28:01 +0000</pubDate></item><item><title>注意事项</title><link>https://PeekaQiu.github.io/3checktheerror.github.io/post/zhu-yi-shi-xiang.html</link><description>### 技巧
* 默认是云端的，本地部署向量模型能提速5倍以上
* memoryFlush和memorySearch功能，会在本地存储记忆
* 云端龙虾需要开放防火墙，但不用代理，更麻烦


### 不良使用习惯
* 输入大量文本，输出大量文本。</description><guid isPermaLink="true">https://PeekaQiu.github.io/3checktheerror.github.io/post/zhu-yi-shi-xiang.html</guid><pubDate>Sun, 15 Mar 2026 00:19:34 +0000</pubDate></item><item><title>一些奇技淫巧</title><link>https://PeekaQiu.github.io/3checktheerror.github.io/post/yi-xie-qi-ji-yin-qiao.html</link><description>[Vibe Coding](https://x.com/siantgirl/status/2032005917047197987)。</description><guid isPermaLink="true">https://PeekaQiu.github.io/3checktheerror.github.io/post/yi-xie-qi-ji-yin-qiao.html</guid><pubDate>Fri, 13 Mar 2026 05:44:47 +0000</pubDate></item><item><title>业务流程梳理</title><link>https://PeekaQiu.github.io/3checktheerror.github.io/post/ye-wu-liu-cheng-shu-li.html</link><description>## 简介
做链上数据采集和分解析的
上游：链上数据采集与解析    中游：规则引擎解析     下游：告警、跟单、消息推送
技术栈： Kafka / Redis / ClickHouse / InfluxDB / Mongo / Postgres
主体业务：从节点 RPC 拉取区块/日志，解析 DEX 交易与资金流，产出结构化事件进入 Kafka/存储，并通过规则引擎生成告警，最终分发至 Redis 队列与终端推送

多源链上数据接入 -&gt; 统一流水线处理 -&gt; 规则判断 -&gt; 配置驱动执行 -&gt; 告警/跟单闭环 -&gt; 钱包分析与一致性沉淀









。</description><guid isPermaLink="true">https://PeekaQiu.github.io/3checktheerror.github.io/post/ye-wu-liu-cheng-shu-li.html</guid><pubDate>Thu, 12 Mar 2026 07:18:59 +0000</pubDate></item><item><title>技术细节</title><link>https://PeekaQiu.github.io/3checktheerror.github.io/post/ji-shu-xi-jie.html</link><description>### 表结构设计

#### 表
用户，聊天记录，回测结果，关联钱包（实际上用的是内置PG中的数据），关联KOL

#### 关键字段
关联钱包：是否是聪明钱
用户：是否是管理员
聊天记录：发收ID，消息内容，聊天类型（私，群）

### 四大内容

#### 用户登陆鉴权
首次登陆拿到系统签发的JWT Token，后续请求HTTP通过Authorization Header携带，Websocket通过URL参数传递。</description><guid isPermaLink="true">https://PeekaQiu.github.io/3checktheerror.github.io/post/ji-shu-xi-jie.html</guid><pubDate>Thu, 12 Mar 2026 01:12:45 +0000</pubDate></item><item><title>需求和架构分析</title><link>https://PeekaQiu.github.io/3checktheerror.github.io/post/xu-qiu-he-jia-gou-fen-xi.html</link><description>### 需求

* 信号跟单中的止盈止损策略逻辑重构，导致用户难以判断最佳策略组合及其收益。</description><guid isPermaLink="true">https://PeekaQiu.github.io/3checktheerror.github.io/post/xu-qiu-he-jia-gou-fen-xi.html</guid><pubDate>Wed, 11 Mar 2026 07:39:30 +0000</pubDate></item><item><title>RL with DQN</title><link>https://PeekaQiu.github.io/3checktheerror.github.io/post/RL%20with%20DQN.html</link><description>### 理论
[点这里](https://www.youtube.com/watch?v=x83WmvbRa2I)
#### 组成
输入：state，action
中间：deep q network
输出：q-value

Q Table represents an agent's conscience
Deep Q-networks combine Q-learning with neural networks

#### 训练过程
* 根据q-network和target-network计算loss function，根据loss更新q-network参数。</description><guid isPermaLink="true">https://PeekaQiu.github.io/3checktheerror.github.io/post/RL%20with%20DQN.html</guid><pubDate>Tue, 10 Mar 2026 04:08:57 +0000</pubDate></item><item><title>Distillation &amp; Finetune相关</title><link>https://PeekaQiu.github.io/3checktheerror.github.io/post/Distillation%20%26%20Finetune-xiang-guan.html</link><description>### 流程
1. Sample生成的数据S
2. 读取S中的市场数据：price, volume, volatility, tick_change； 随机生成eth和usdc持仓
3. 构造prompt，提前规定好Chain of Draft，发送给teacher model
4. 解析响应，得到draft，action，full_response
5. 正则解析响应，得到RECOMMENDATION：BUY / SELL / HOLD + amount
6. 继续解析5的结果，正则替换BUY / SELL / HOLD -&gt; APE IN / APE OUT / APE NEURAL
7. Split &amp; Save Data


### LoRA参数设置原因
在极度压榨显存（batch_size=1, grad_checkpoint=true, 仅微调顶部 16 层的 q, v 投影）的同时，利用激进的覆盖策略（较高的 LR 和较高的 alpha/rank 比例）确保了“知识蒸馏”在较少的步数（400步）内快速起效。</description><guid isPermaLink="true">https://PeekaQiu.github.io/3checktheerror.github.io/post/Distillation%20%26%20Finetune-xiang-guan.html</guid><pubDate>Mon, 09 Mar 2026 13:14:18 +0000</pubDate></item><item><title>WGAN相关</title><link>https://PeekaQiu.github.io/3checktheerror.github.io/post/WGAN-xiang-guan.html</link><description>

### 理论部分

#### 关于WGAN：

&gt; 一句话总结WGAN-GP月Vanilla GAN的区别：Discriminator得到的是the degree of fake image, rather than the binary classification (real or not). 

##### GAN Training思路链：[详情](https://www.youtube.com/watch?v=jNY1WBb8l4U&amp;t=1608s)

1. Generator的训练: 找一组Generator参数，使从normal distribution中采样后生成的分布尽量接近于于真实分布minimize divergence between Pg and Pdata
2. 如何计算Divergence? Although we do not know the distributions of Pg and Pdata, we can sample from them. Use database to sample Pdata and normal distribution to sample Pg
3. Discriminator的训练：把从Pdata和Pg中sample的data混合起来，用discriminator区分。</description><guid isPermaLink="true">https://PeekaQiu.github.io/3checktheerror.github.io/post/WGAN-xiang-guan.html</guid><pubDate>Mon, 09 Mar 2026 09:20:39 +0000</pubDate></item><item><title>测试一下</title><link>https://PeekaQiu.github.io/3checktheerror.github.io/post/ce-shi-yi-xia.html</link><description>康康这里。</description><guid isPermaLink="true">https://PeekaQiu.github.io/3checktheerror.github.io/post/ce-shi-yi-xia.html</guid><pubDate>Wed, 04 Mar 2026 03:17:06 +0000</pubDate></item></channel></rss>