Overview

Overview

个人知识库的主题总览。目前涵盖七个核心主题:上下文工程(Context Engineering)、AI 时代的用户体验LLM Wiki 模式Transformer 架构 / 注意力机制音频信号处理 / 音频可视化前端动画中的物理模型浏览器中的折射玻璃效果

Context Engineering(上下文工程)

研究 LLM 如何接收、处理和利用输入信息,以及如何通过结构化管理上下文窗口来提升模型输出质量。

核心发现:输入更多信息反而可能降低模型表现(Context Rot 问题),需要通过 Context Engineering 的四种策略(Write、Select、Compress、Isolate)来优化。

涉及:Attention MechanismContext WindowRetrieval-Augmented Generation (RAG)Lost in the Middle Problem 等。

AI 时代的用户体验

研究 AI 把用户角色从“执行步骤的人”转成“监督自动化的人”之后,交互设计、可用性指标和风险控制方式会如何被重写。

这条知识线从 Intent-based Outcome Specification 出发,串起 Articulation BarrierOrchestration SurfaceIntentional Cognitive FrictionSlow AIIntent by Discovery,也和 Long-term Memory for LLMsMulti-agent System 等系统层能力发生交叉。

LLM Wiki 模式

一种由 LLM 逐步构建和维护的持久化知识库架构。核心理念是 知识编译一次、持续更新,而非每次查询时重新从原始文档中提取。

人负责:提供源资料、提出问题、审查结果。LLM 负责:总结、交叉引用、归档、维护一致性。

涉及:ScratchpadsLong-term Memory for LLMs、Obsidian 工具链(Web Clipper、Dataview、Marp)。

Transformer 架构与注意力机制

研究现代 LLM 的基础架构从何而来,以及注意力机制为什么既带来了表达能力,也带来了长上下文成本。

这条知识线从 Attention Is All You Need 出发,串起 TransformerSelf-AttentionScaled Dot-Product AttentionMulti-Head AttentionPositional Encoding,也为理解 Context WindowLost in the Middle Problem 等现象提供底层背景。

音频信号处理与音频可视化

研究声音如何从连续波形变成数字样本,如何通过 Fourier Transform 从时域切换到频域,以及如何把这些频率分量绘制成播放器里的频谱柱状图。

这条知识线串起了声音的物理直觉、数字音频的采样表示、频谱分析和浏览器端可视化实现。

涉及:Sound WaveFrequency and Amplitude in SoundPure ToneAudio SamplingSampling Rate and Bit DepthTime Domain and Frequency DomainFFT and rFFTAudio VisualizationTime SmoothingWeb Audio API

前端动画中的物理模型

研究前端交互动画如何借用物理模型来获得更自然的运动效果,尤其是弹簧动画(Spring Animation)背后的恢复力、质量和阻尼。

这条知识线把数学/物理模型与 UI 动画参数连接起来,帮助理解为什么 massstiffnessdamping 会直接改变动画手感。

涉及:[[Hooke’s Law]]、Harmonic OscillatorDamping in Spring AnimationSpring Parameters in Framer MotionFramer Motion

浏览器中的折射玻璃效果

研究如何在浏览器里近似实现具有“材质感”的玻璃 UI,重点不是普通模糊,而是通过 Refraction 建模背景位移,再交给 SVG Displacement MapSpecular Highlight 组合出可感知的厚度与高光。

这条知识线连接了光学直觉、位移贴图编码和浏览器滤镜约束,也补充了前端渲染层面对“Apple 风格视觉效果”可实现边界的理解。

涉及:Liquid Glass EffectRefractionSVG Displacement MapSpecular Highlight