<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Thoughts - Tag - ChrisRaynor 的博客</title><link>https://chrisraynor.pages.dev/tags/thoughts/</link><description>ChrisRaynor 的博客</description><generator>Hugo 0.147.7 &amp; FixIt v0.4.0-alpha.3-20251222034819-3fa866fa</generator><language>zh-cn</language><lastBuildDate>Wed, 08 Apr 2026 22:12:00 +0800</lastBuildDate><atom:link href="https://chrisraynor.pages.dev/tags/thoughts/index.xml" rel="self" type="application/rss+xml"/><item><title>训练数据耗尽不是终点</title><link>https://chrisraynor.pages.dev/posts/2026-04-08-training-data-exhaustion/</link><pubDate>Wed, 08 Apr 2026 22:12:00 +0800</pubDate><guid>https://chrisraynor.pages.dev/posts/2026-04-08-training-data-exhaustion/</guid><description>&lt;p>&lt;em>Co-authored with Claude. 整理自&lt;a href="https://chrisraynor.pages.dev/notes/note-2026-04-08-training-data-exhaustion/">原始笔记&lt;/a>。&lt;/em>&lt;/p>
&lt;hr>
&lt;p>&lt;a href="https://epoch.ai/blog/will-we-run-out-of-data-limits-of-llm-scaling-based-on-human-generated-data/"target="_blank" rel="external nofollow noopener noreferrer">AI 正在耗尽人类数据&lt;/a>，而现在 AI 生成内容正在迅速污染互联网。&lt;a href="https://www.nature.com/articles/s41586-024-07566-y"target="_blank" rel="external nofollow noopener noreferrer">2024 年的 Nature 论文&lt;/a>说，AI 如果一直在自己输出的东西上训练会越来越差。这些标题很容易被串成一个结论——随着人类训练数据耗尽，AI 的进步会停滞。但我想不是这样的。&lt;/p></description></item><item><title/><link>https://chrisraynor.pages.dev/notes/note-2026-04-08-training-data-exhaustion/</link><pubDate>Wed, 08 Apr 2026 00:28:00 +0800</pubDate><guid>https://chrisraynor.pages.dev/notes/note-2026-04-08-training-data-exhaustion/</guid><description>&lt;p>teaser？——&lt;/p>
&lt;p>&lt;del>一种说法是 AI 在耗尽它的训练数据（人类来源的东西）——Epoch AI 估计公开可用的高质量人类文本总量约 300 万亿 token，按当前训练规模可能在 2026–2032 年间耗尽（Villalobos et al., &amp;ldquo;Will we run out of data?&amp;rdquo;, ICML 2024）。而 AI 如果后续在自己输出的东西上训练，只会越来越差——学术上叫 model collapse（Shumailov et al., &amp;ldquo;AI models collapse when trained on recursively generated data&amp;rdquo;, Nature 2024），网上也有人叫 &amp;ldquo;Habsburg AI&amp;rdquo;。&lt;/del>&lt;/p></description></item><item><title>Harness 是新瓶装旧酒吗</title><link>https://chrisraynor.pages.dev/posts/2026-03-26-harness/</link><pubDate>Thu, 26 Mar 2026 13:42:00 +0800</pubDate><guid>https://chrisraynor.pages.dev/posts/2026-03-26-harness/</guid><description>&lt;p>&lt;em>Co-authored with Claude. 整理自&lt;a href="https://chrisraynor.pages.dev/notes/note-2026-03-26-harness/">原始笔记&lt;/a>。&lt;/em>&lt;/p>
&lt;hr>
&lt;p>有人说 harness 这个概念是新瓶装旧酒——传统软件工程早就有类似的东西，围绕主要算法提供支撑的外层，以及导致同一个算法在不同环境下行为不同的原因。&lt;/p></description></item><item><title>从宿命论与自由意志的思想游戏到悖论</title><link>https://chrisraynor.pages.dev/notes/2026-02-02-paradox-log/</link><pubDate>Mon, 02 Feb 2026 00:00:00 +0000</pubDate><guid>https://chrisraynor.pages.dev/notes/2026-02-02-paradox-log/</guid><description>&lt;p>#expose-to-agent
当看到时空穿越的科幻作品时，我们常看到两种假说或表现形式&lt;/p>
&lt;ol>
&lt;li>穿越到过去创建新的时间线，你可以改变那条时间线。（这是什么平行宇宙理论吗）&lt;/li>
&lt;li>只有一条时间线，穿越不能改变任何东西。&lt;br>
还有什么能与这两个并列的假设：&lt;/li>
&lt;li>时间旅行不存在。&lt;/li>
&lt;/ol>
&lt;p>我们来 play with 假设 2&lt;/p></description></item></channel></rss>