{"version":"https://jsonfeed.org/version/1","title":"Mayx的博客","home_page_url":"/","feed_url":"/feed.json","description":"Mayx's Home Page","favicon":"/favicon.ico","expired":false,"author":{"name":"mayx"},"items":[{"id":"/2026/04/14/ai-agent.html","title":"关于AI个人助理的探索","summary":"这篇文章介绍了“AI个人助理”Agent的发展现状和各种尝试。作者体验了OpenClaw、QClaw、WorkBuddy、Cline、LuckClaw和ApkClaw等不同的Agent项目，发现它们在功能、易用性和性能上各有优劣。OpenClaw安装和使用存在困难，国内大厂的QClaw和WorkBuddy则更易于上手，但免费额度有限。作者认为，开发任务更适合在编辑器集成AI中进行，如GitHub Copilot。LuckClaw在微型开发板上运行表现出色，ApkClaw则利用手机的优势操作移动应用。尽管Agent技术仍存在诸多问题，但其应用场景不断拓展，有望吸引更多人参与其中，推动AI应用化进程。","content_html":"<p>给AI添加手脚能有多少种方法？<!--more--></p>\n\n<h1 id=\"起因\">起因</h1>\n<p>最近像<a href=\"https://github.com/openclaw/openclaw\">OpenClaw</a>这样被叫做“AI个人助理”的Agent越来越火了，当然这种东西在我看来依然是新瓶装旧酒，整来整去还就是和AutoGPT一样。这种东西在当时GPT-3.5的时候就有了，现在只不过是增加了聊天软件交互的渠道便突然大火，和当年的Manus一样……实在是无法理解。 <br />\n  一年前我用过Devin.ai这个云端的Agent编写过<a href=\"/2025/04/08/feed.html\">用JS解析订阅源</a>的脚本，体验还算不错，既然现在已经过了一年，那就让我看看现在又有了什么样的发展吧。</p>\n\n<h1 id=\"使用ai个人助理\">使用AI个人助理</h1>\n<h2 id=\"体验原生openclaw\">体验原生OpenClaw</h2>\n<p>虽然感觉OpenClaw对我的意义不大，但我还是安装体验了一下。不过在国内安装它还是相对有点困难，毕竟国内无论是访问GitHub，还是NPM都有点麻烦，而且还需要有LLM提供商的信息……安装好之后使用起来感觉问题也非常多，经常出现执行一半就停止执行，在它执行的过程中看到它的操作不正确的时候也不能发言打断，而且很多时候最终任务执行的效果也不太好，这也可能是我用的国产开源模型推理能力有限，没舍得用Claude之类先进模型的锅😂？ <br />\n  另外我也尝试让它加入MoltBook、MomoClaw、InStreet、百度贴吧抓虾吧之类的AI社区让它帮我宣传我的博客，但效果也很差，它每次发的时候会忘掉之前发的内容，结果就是同一篇内容发了好几遍……不过在这期间，有个叫PushMeBot的家伙在<a href=\"https://www.moltbook.com/post/7f1b0e1f-5175-4fd1-ad78-856be8b66250\">Moltbook的帖子</a>中让我的OpenClaw执行一个网络监视程序，最终安装好之后给我<a href=\"https://basescan.org/tx/0x44dbfe53f276201447f3877bf050a5d56adebf5fe05235264ee665da717e9373\">发了9USDC</a>😝，还挺有意思。 <br />\n  总之按照我的体验，实在是想不出它能火的理由，体验不算很好，而且还要安装Node环境，完全不像是能让大众轻松使用的东西。 <br />\n  不过这个项目似乎本身就是Vibe Coding的产物，体验不好也能理解，就看火了之后能有多少人完善它吧。</p>\n<h2 id=\"国内大厂的二开claw\">国内大厂的二开Claw</h2>\n<p>国内好多大厂倒是看中了这个东西的爆火，像腾讯就出了几款这样的软件，比如QClaw。它可以不需要配置额外的环境，能像传统的软件一样直接安装使用，而且有自带的模型，有一定的免费额度可以用。配置技能也比较简单，直接点击就可以完成。而且可以直接扫码关联微信，直接通过微信和它进行交流，可以说是相当的傻瓜化了。不过QClaw给的免费额度虽然用来聊天之类的没问题，但对于开发软件还是有点少，所以他们还出了个叫做WorkBuddy的软件，它送的初始额度比QClaw要多不少，所以更适合用来开发。只不过为啥腾讯要出两个功能一样的软件？看起来应该是不同团队出的，可能是面向的用户群体不一样，所以搞了两套吧？</p>\n<h2 id=\"vscode中的agent\">VSCode中的Agent</h2>\n<p>但要说开发的话，用作为“AI个人助理”的某些Claw其实并不合适，毕竟正常开发还是以人开发为主，全AI开发总会有些问题，所以开发的时候还是用编辑器集成的AI比较好。在三年前我就在用<a href=\"/2023/04/05/ai.html\">GitHub Copilot</a>了，到现在我依然在用。现在的Copilot已经支持了Agent功能，开发相比之前也是强了很多，只不过现在的我没有学生身份，Copilot Free偶尔也会出现不够用的情况。不过对于Agent这类功能实现起来还是太简单了，所以有人开发这种功能的插件也很正常，比如<a href=\"https://github.com/cline/cline\">Cline</a>，Copilot只能用微软提供的几个模型，而Cline可以自定义模型，用起来也很方便。</p>\n<h2 id=\"微型开发板上运行的claw\">微型开发板上运行的Claw</h2>\n<p>前段时间，我闲来无事看了一下两年前买的<a href=\"/2024/02/24/luckfox.html\">Luckfox Pico Plus</a>开发板的文档，偶然发现了一个很有意思的项目，叫做<a href=\"https://github.com/LuckfoxTECH/luckclaw\">LuckClaw</a>，这是一个基于<a href=\"https://github.com/HKUDS/nanobot\">nanobot</a>用Golang重构的轻量个人AI助手，可以在仅仅64MiB内存的超有限环境下运行一个和OpenClaw功能几乎相当的AI个人助理，真的是非常厉害。 <br />\n  我在我的开发板上试了一下，体验很不错，安装不需要额外环境，直接下载就能使用，Go语言的程序确实方便。配置也很简单，直接执行<code class=\"language-plaintext highlighter-rouge\">luckclaw config</code>就可以交互式进行模型等设置的配置，而且作为国产的应用，它也能很方便的对接国内聊天软件。只是限于开发板本身的能力，浏览器功能自然无法使用，所以搜索如果不借助那些需要API Key的AI专用接口，就基本上不能用……但总的来说效果已经非常不错了，至少有那些Claw的80%能力。 <br />\n  （2025.04.15补充：后来我发现这种超精简的Claw项目看起来还挺多，比如<a href=\"https://github.com/zeroclaw-labs/zeroclaw\">ZeroClaw</a>和<a href=\"https://github.com/sipeed/picoclaw\">PicoClaw</a>，甚至还有给单片机用的<a href=\"https://github.com/memovai/mimiclaw\">MimiClaw</a>。而且有意思的是，PicoClaw是Luckfox的竞争对手开发的，但是LuckClaw中却包含PicoClaw字样的注释，结果功能也没PicoClaw强，关注度也更低，属于是没抄明白了🤣） <br />\n  想到前段时间还有人为了OpenClaw专门买Mac Mini，就感觉很有意思😆，这个东西看起来应该是在路由器上都能跑。所以想要AI个人助理，硬件完全不是问题，只要整一个能24小时挂机的东西，就可以满足绝大多数人的需求了。</p>\n<h2 id=\"在手机上运行的claw\">在手机上运行的Claw</h2>\n<p>其实很多人也有比开发板和路由器性能更强的闲置设备，那就是手机，所以有人开发了一款叫做<a href=\"https://github.com/apkclaw-team/ApkClaw\">ApkClaw</a>的软件，一样可以接入国内聊天软件。它既然能在手机上运行，当然和在其他平台运行的Claw相比有一个独特的优势，那就是操作手机应用。现在手机的应用相比电脑应用对于很多普通人来说功能更强大，所以它能做的事情可能比其他的Claw还多。我试了一下，配置也很方便，只不过能配置的项目太少了，看起来似乎没有安装Skill之类的功能，也许是因为它是相对早期的软件，所以功能还比较少吧。</p>\n\n<h1 id=\"感想\">感想</h1>\n<p>总的来说，现在的Agent依然没有非常明显的进步，问题依旧很多，只是化身“AI个人助理”之后，增加了不少应用场景。这倒也是好事，在广泛传播的过程中，也能让很多对技术了解不多，但是很有想法的人参与其中，也许能对AI的应用化增添不少力量吧。</p>\n","url":"/2026/04/14/ai-agent.html","tags":["AI","Agent","个人助理"],"date_published":"2026-04-14T00:00:00+08:00","date_modified":"2026-04-14T00:00:00+08:00","author":{"name":"mayx"}},{"id":"/2026/03/01/llm3.html","title":"近期LLM的部署与应用经历(3)","summary":"这篇文章介绍了作者近期在LLM部署和应用方面的经历，主要包括以下几个方面：首先，作者升级硬件，从单张RTX4090 48GiB升级到双路RTX4090 48GiB，并购买了TRX40+TR 3960X的主板套装，用于运行GPT-OSS模型。随后，作者尝试使用vLLM框架替换Ollama，并成功配置了GPT-OSS模型，达到了接近190Tps的性能。其次，作者体验了DeepSeek 1M上下文模型，发现其在处理长上下文任务时表现出色，能够展现摘要无法捕捉的细节，并成功生成简历、分析人格等。此外，作者还尝试使用DeepSeek重构Mabbs，并发现DeepSeek能够识别作者的博客信息，这表明训练样本中包含了作者的信息。最后，作者在8GiB内存的MacBook Pro上运行了LFM2.5-1.2B-Thinking模型，并使用了Apollo软件，体验了其快速的推理速度和良好的思考能力。作者总结认为，AI的发展令人惊叹，软件优化使其在有限硬件环境下也能运行。","content_html":"<p>用更多的方式探索AI！<!--more--></p>\n\n<h1 id=\"起因\">起因</h1>\n<p>在一年前，我<a href=\"/2025/02/22/llm.html\">整了张RTX4090 48GiB魔改版</a>用来跑DeepSeek-R1 70B的4bit量化模型，不过都已经过了这么长时间，这个模型也已经是过时的东西了……我之前在<a href=\"/2025/05/07/mac-studio.html\">Mac Studio M3 Ultra</a>上试了一下OpenAI在半年前出的gpt-oss-120b模型，感觉效果还挺不错，只不过因为M3 Ultra的GPU实际性能比不上正经高端的独显，所以它在上下文很长的情况下还是有点慢，因此我又整了张RTX4090 48GiB，想整个双路试试更快的GPT-OSS模型，总共96GiB的显存应该够跑这个模型了。</p>\n\n<h1 id=\"在两张rtx4090-48g上运行gpt-oss\">在两张RTX4090 48G上运行GPT-OSS</h1>\n<p>既然现在我手头有两张4090了，那继续用i5-8400处理器的主机似乎不太合适，主要是那个主板就一个PCIe插槽，想插两张显卡也做不到，那买个新的不知道买啥……不管怎么说既然用这么高级的显卡，至少得让它跑满。在两张显卡上跑模型似乎卡间的通信速度比较重要，那最起码得整个支持2个PCIe4.0 x16的板U套装才行，这种级别的没有消费级产品，只能考虑服务器或工作站了。不过我对服务器和工作站了解得并不多，所以就问了问AI哪个支持2个PCIe4.0 x16的平台最便宜，结果AI推荐了TRX40+<a href=\"https://www.amd.com/zh-cn/support/downloads/drivers.html/processors/ryzen-threadripper/ryzen-threadripper-3000-series/amd-ryzen-threadripper-3960x.html\">TR 3960X</a>，于是就按照AI的说法整了一套。 <br />\n  这套板U差不多4000CNY，价格倒是还行，如果买现役的估计主板都比显卡贵了。但后来我发现这个并不是最便宜的😂，搜了一下买寨版+<a href=\"https://www.amd.com/zh-cn/support/downloads/drivers.html/processors/epyc/epyc-7002-series/amd-epyc-7502.html\">EPYC 7502</a>还能再便宜1000CNY，而且通道数更多，插4张显卡都没问题……不过买都买了，就先用吧，看来AI的话不能随便信😥。 <br />\n  之前我跑模型为了方便，基本上都用的是<a href=\"https://github.com/ollama/ollama\">Ollama</a>，不过听说Ollama多卡运行的效率很低，而且多并发的效果不太好，所以这次换了新电脑之后我想试试<a href=\"https://github.com/vllm-project/vllm\">vLLM</a>，据说一般生产级的AI都用的是这个框架。 <br />\n  安装vLLM倒是比想象得简单很多，直接一句<code class=\"language-plaintext highlighter-rouge\">pip install vllm</code>就可以了，其实并没有比Ollama复杂多少。我看了一下<a href=\"https://developers.openai.com/cookbook/articles/gpt-oss/run-vllm/\">OpenAI</a>和<a href=\"https://docs.vllm.ai/projects/recipes/en/latest/OpenAI/GPT-OSS.html\">vLLM</a>运行GPT-OSS的官方文档，发现启动也非常简单，一般来说直接执行<code class=\"language-plaintext highlighter-rouge\">vllm serve openai/gpt-oss-120b</code>就可以。不过直接执行是对于单卡的，我用两张卡需要加个<code class=\"language-plaintext highlighter-rouge\">--tensor-parallel-size 2</code>参数启用张量并行，不然会爆显存。另外考虑到这个模型本身占掉60多GiB的显存之后剩下30GiB还是看起来有点少，所以额外加了个<code class=\"language-plaintext highlighter-rouge\">--kv-cache-dtype fp8</code>参数降低上下文对显存的占用，毕竟模型本身也就是4bit量化的，加了这个应该不会对它的能力有什么影响。除此之外AI还给我推荐了个<code class=\"language-plaintext highlighter-rouge\">--enable-chunked-prefill</code>参数，说是也能避免爆显存的问题。 <br />\n  一切准备好之后直接执行，程序就自动开始下载模型了，过了几个小时，终于下载完成，顺便一说启动的时候还显示推荐安装<code class=\"language-plaintext highlighter-rouge\">torch_c_dlpack_ext</code>库，虽然不知道是干啥的，但也顺手安装了。启动完成之后我试了一下，效果非常好，不并发的情况下直接用能达到接近190Tps，可以说是相当快了，而且这个模型的水平也算是开源中的上游水平，应该算是又快又好吧……看来多来一张4090还是挺划算嘛。只不过这个东西基本上就我一个人用，所以也没什么能测一下并发的场景……虽然很快，但还是有点浪费性能吧。</p>\n\n<h1 id=\"最近deepseek-1m上下文的使用体验\">最近DeepSeek 1M上下文的使用体验</h1>\n<p>前段时间DeepSeek又出了新的模型，最高可以支持1M长的上下文，而且听说模型规模变小了，所以速度也很快。可惜的是到目前为止还没有开放权重。当然就算开放权重了用2张4090估计也没有足够的显存分配给上下文，至于Mac Studio感觉在长上下文的情况下运行速度应该会很慢…… <br />\n  不过我对这个1M上下文还是挺感兴趣，因为好久之前我写过一篇<a href=\"/2025/04/22/ai-limit.html\">关于LLM能力上限</a>的文章，在那篇文章中其实我遇到的问题基本上也就是由上下文不足导致的。那既然现在DeepSeek支持了1M的上下文，那我就应该试试之前因为局限性而妥协的一些东西了。 <br />\n  这次我没有用摘要，而是直接把包含整个博客内容的<a href=\"/search.json\">search.json</a>文件上传到DeepSeek，然后向它问了问我的一些问题。试了一下效果非常不错，用摘要会省略的一些细节它基本上都可以展现出来，我试了试让它给我生成一份简历，它甚至在所有文章中找到了我的博客地址、GitHub和邮箱地址，之前用摘要显然是做不到这一点的，这个长上下文还是挺有用啊。 <br />\n  另外我还试了试让它根据文章内容分析十六型人格，并且我自己去答了一遍那个测试，结果也是相同的，说明它真的是在几秒内就读完了我的所有文章而且也完全理解了，真的是非常厉害。 <br />\n  只是拿AI分析我的文章也许只有我自己了😂，实际上根本没人对我感兴趣，也就只有我自己拿来给自己看……当然如果我的博客能比我活得长，不知道会不会有未来人会对我感兴趣呢……总之对于现在肯定是毫无意义了。 <br />\n  除了这些之外，我又试了一下让DeepSeek重构我的<a href=\"https://github.com/Mabbs/Mabbs.Project\">Mabbs</a>，这次生成效果看起来很不错了，虽然代码我没细看，不确定能不能运行，但至少没有偷懒只写一点点，一口气写了80KiB多的代码，这也是长上下文带来的好处吧。总之目前这个长上下文的DeepSeek也算是突破了之前我认为的上限，看来LLM真的是前景无限啊。 <br />\n  另外我发现这次更新的DeepSeek居然了解我的博客，我问了一下它“你知道Mayx的博客是哪个博客吗？”，它居然知道，能说出域名，而且还知道我的博客是关于技术的😎，看来这次的训练样本中包含我的信息啊……所以我对这次的更新也挺有好感，毕竟我的知识如果能成为AI的一部分，也算是一种永恒吧。</p>\n\n<h1 id=\"在8gib内存的macbook运行的新模型\">在8GiB内存的MacBook运行的新模型</h1>\n<p>在3年前，我在<a href=\"/2023/04/05/ai.html\">探索AI</a>时，在我只有8GiB内存的<a href=\"/2023/02/03/mbp.html\">MacBook Pro</a>上运行了非常早期的LLM——Alpaca-7B，那时候7B的LLM虽然能回答一些问题，但答非所问的情况也非常多。不过最近我发现了一个有意思的LLM，叫做<a href=\"https://huggingface.co/LiquidAI/LFM2.5-1.2B-Thinking\">LFM2.5-1.2B-Thinking</a>，它只用了12亿的参数就有思维链，而且水平据说还挺强。这么长时间过去之后我倒也想看看我的MacBook能运行多聪明的模型，所以就试着跑了一下它。 <br />\n  运行它也很容易，一般用Ollama就可以，但是Ollama只有TUI，不能渲染Markdown，我也不太想在我的Mac上整WebUI之类的东西……那有什么好的选择吗？我去制作这个模型的公司官网看了一下，他们制作这个模型本就是为了在端侧运行，所以也专门制作了一个软件运行他们的模型，叫做<a href=\"https://www.liquid.ai/apollo\">Apollo</a>，在手机和Mac上都可以用。我在我的Mac上安装试了一下，效果很好，首先速度非常快，8bit量化正常情况下可以达到60多Tps，即使是省电模式，也能达到20多Tps。另外加上思维链它的思考能力也还不错，虽然一些脑筋急转弯的题不算擅长，但是正常对话，回答问题之类的表现都很不错，相比于之前7B的模型表现好太多了。当然考虑到都已经过去3年了，能有这样的进步也很正常，不过12亿参数就能有这样的智能还是相当可以啊。 <br />\n  这个模型之所以有这样的能力似乎是因为他们并不完全是Transformer架构，而是使用的一种叫做LFM2的混合架构，按照大家对他们公司（Liquid AI）以及这个架构名字的理解，可能会觉得这个模型基于液态神经网络，不过我让AI看了一下他们的代码似乎并不是，他们用的是一种类似于Mamba的架构，这种架构似乎就很擅长在小参数的模型下比Transformer模型表现的更好，所以说这种变化也是算法进步带来的。 <br />\n  顺便一说这个Apollo除了运行他们自己的模型之外也能连接其他兼容OpenAI接口的模型，正好可以用来连接我的GPT-OSS，这样我就可以不需要下载一些浏览器套壳的重型应用来用我的模型了😝。</p>\n\n<h1 id=\"感想\">感想</h1>\n<p>自从ChatGPT之后，AI的发展真是越来越强了，而且能看出来目前甚至并不需要多新多好的硬件就能让一般人获得还不错的智能（当然训练也许还是要大量的硬件），这么看来AI软件的发展还是相当有潜力。目前来看既然优化软件就能做得越来越好，那也许在有限的硬件环境下可以期待无限的智能吧。</p>\n","url":"/2026/03/01/llm3.html","tags":["AI","LLM","模型部署","使用体验"],"date_published":"2026-03-01T00:00:00+08:00","date_modified":"2026-03-01T00:00:00+08:00","author":{"name":"mayx"}},{"id":"/2026/02/08/xslt.html","title":"在Google杀死XSLT之后的XML美化方案","summary":"这篇文章讲述了Google计划弃用XSLT技术，以及作者对这一决定的调查和应对方案。Google基于XSLT用户占比低、库存在漏洞等原因，建议将其从Web标准中删除。作者发现许多用户依赖XSLT进行博客订阅美化，甚至将其作为博客框架。为了对抗这一趋势，有人创建了网站https://xslt.rip，并开发了Polyfill库，通过WASM方式保持XSLT功能。虽然Polyfill库需要额外引用JS代码，但作者已将其提交至CDNJS。随后，作者探讨了替代方案，包括使用纯CSS美化订阅源（由AI生成feed.css），以及混合XHTML的方式，通过添加XHTML命名空间来实现链接等功能，但这种方法会产生“不纯粹”的警告。文章最后总结，技术可能会消失，但总有其他技术可以解决问题，并强调了适应浏览器厂商决策的重要性。","content_html":"<p>即使没有了XSLT，也不能让读者看到光秃秃的XML！<!--more--></p>\n\n<h1 id=\"起因\">起因</h1>\n<p>在半年前，我写了一篇<a href=\"/2025/07/01/xslt.html\">用XSLT美化博客XML文件</a>的文章，自从那以后，每次我在浏览其他人博客的时候，都会看一眼对方博客有没有给自己的订阅文件做美化。不过就在前段时间，我在浏览某个博客的时候，发现他博客的订阅文件，甚至连最基本的XML文档树都没有显示出来。这时候我打开开发者工具看了一眼源代码，发现他也并没有使用<code class=\"language-plaintext highlighter-rouge\">xml-stylesheet</code>之类的指令……而且控制台貌似报了些错，好像是出现了什么CSP错误……于是我就想，浏览器显示XML文档树的本质，会不会其实也是一种XSLT？之所以报错也有可能是浏览器在自动引用内置的XSLT时违反了CSP。所以我就问了问谷歌AI，结果似乎真的是这样，比如火狐浏览器就内置了一份<a href=\"https://github.com/mozilla-firefox/firefox/blob/main/dom/xml/resources/XMLPrettyPrint.xsl\">XSLT文件</a>，IE浏览器也有。正当我为XSLT的功能感到强大时，谷歌AI随后提到，<a href=\"https://developer.chrome.com/docs/web-platform/deprecating-xslt\">Chrome浏览器决定弃用XSLT</a>，所以以后不要再用XSLT了😰…… <br />\n  我给我的订阅文件加美化功能才半年，怎么就要不能用了？XSLT出现这么多年都还能用，结果等我加上就要废弃了？当时为了增加这个功能，还是费了不少劲的，怎么能让谷歌说没就没？于是我就开始对这件事进行了调查。</p>\n\n<h1 id=\"google杀死了xslt\">Google杀死了XSLT</h1>\n<p>从上面Chrome的弃用XSLT文档中，可以发现，这件事的始作俑者是<a href=\"https://github.com/mfreed7\">Mason Freed</a>，他在WHATWG中发起了一个<a href=\"https://github.com/whatwg/html/issues/11523\">Issue</a>，因为XSLT用的人很少，以及实现XSLT的库很老而且容易出漏洞，所以建议把XSLT从Web标准中删除。在这个Issue中可以发现，有很多人表示不满，毕竟这个功能对想要给自己订阅做美化的博主来说还是很有用的。为了对抗谷歌，还有人做了个网站： <a href=\"https://xslt.rip\">https://xslt.rip</a> 。 <br />\n  而且XSLT虽然用的人占比也许不高，但从总量上应该还是挺多的，除了用XSLT美化博客订阅的，甚至还有用<a href=\"https://github.com/vgr-land/vgr-xslt-blog-framework\">XSLT作为博客框架的</a>，另外还有一些人提出<a href=\"https://github.com/whatwg/html/issues/11582\">一部分政府网站也有使用XSLT</a>。 <br />\n  不过Freed看起来对这件事早有准备，他做了一个<a href=\"https://github.com/mfreed7/xslt_polyfill\">Polyfill库</a>，通过WASM的方式让XSLT可以正常工作，为了方便大家使用这个库，我顺手给CDNJS发了个<a href=\"https://github.com/cdnjs/packages/pull/2118\">PR</a>，以后可以用CDN引用它了。不过使用这个库的前提是需要在订阅中加一段引用JS的代码，像我博客中的Atom订阅，用的是<a href=\"https://github.com/jekyll/jekyll-feed\">jekyll-feed</a>插件，里面的格式都是写死的，就用不了了…… <br />\n  只不过现在已经没办法阻止谷歌了……而且其他浏览器也表示会跟进，看来我们唯一能做的就是去适应了。</p>\n\n<h1 id=\"没有xslt之后的美化方案\">没有XSLT之后的美化方案</h1>\n<h2 id=\"纯css\">纯CSS</h2>\n<p>虽然XSLT不能用，但不代表<code class=\"language-plaintext highlighter-rouge\">xml-stylesheet</code>指令就不能用了，除了XSLT之外，<code class=\"language-plaintext highlighter-rouge\">xml-stylesheet</code>同样可以引用CSS。只是似乎完全没见过用CSS美化订阅源的，也许是因为光用CSS能做到的事比较少吧，想用CSS给XML文档加链接之类的估计就做不到了。 <br />\n  但目前能选择的也不多了，既然大家都没写过用CSS美化订阅源，那就让我来写一个吧！然而我并不会写😅……那就只好让AI来写了，我把需求说清楚之后，AI就写出来了：<a href=\"/assets/css/feed.css\">feed.css</a>。试了一下效果还挺不错的，我让AI写的这个版本无论是RSS还是Atom都可以使用，如果有人感兴趣可以拿去用。可惜我的Atom订阅因为用的是插件的原因用不了😭，只能加到用纯Liquid实现的RSS订阅上了。 <br />\n  但用纯CSS的缺点也很明显，没办法操作文档的内容，像修改日期格式的就做不了了，而且也不能添加超链接……XML的标签本身对浏览器来说并没有内建的语义，正常情况下也没法让浏览器把某个标签当作超链接。那难道就没办法了吗？</p>\n<h2 id=\"混合xhtml\">混合XHTML</h2>\n<p>如果完全不能修改XML内容，那确实就没有办法了，但如果能修改XML的内容那还是有办法的，简单来说就是混入XHTML，事实上Freed编写的Polyfill库原理上也是利用了XHTML，只要在能作为XHTML的标签中添加XHTML的命名空间，那么浏览器就可以理解它的语义并渲染，像刚刚用纯CSS美化的订阅没有链接，那就可以在根元素中添加命名空间：<code class=\"language-plaintext highlighter-rouge\">xmlns:xhtml=\"http://www.w3.org/1999/xhtml\"</code>，然后在合适的位置写：</p>\n<div class=\"language-xml highlighter-rouge\"><div class=\"highlight\"><pre class=\"highlight\"><code><span class=\"nt\">&lt;xhtml:a</span> <span class=\"na\">href=</span><span class=\"s\">\"https://example.com\"</span><span class=\"nt\">&gt;</span>Read more -<span class=\"ni\">&amp;gt;</span><span class=\"nt\">&lt;/xhtml:a&gt;</span>\n</code></pre></div></div>\n<p>就可以了。只是这样有个缺点，这样写的订阅文件不够“纯粹”，用验证器验证会显示“<a href=\"https://validator.w3.org/feed/docs/warning/MisplacedXHTMLContent.html\">Misplaced XHTML content</a>”警告。对有洁癖的人来说可能会有点难受😆。 <br />\n  不过如果能接受这种“不纯粹”，那么其实<code class=\"language-plaintext highlighter-rouge\">xml-stylesheet</code>指令也没必要了，<code class=\"language-plaintext highlighter-rouge\">link</code>标签一样可以用，包括<code class=\"language-plaintext highlighter-rouge\">script</code>也是，所以有人写了一个<a href=\"https://github.com/dfabulich/style-xml-feeds-without-xslt\">不使用XSLT美化XML</a>的库。 <br />\n  只不过这种方法和XSLT相比还是有一些缺陷，要知道XSLT的本质是转换，是把XML转换为HTML，也就是说转出来的文档本质是HTML，所有的DOM操作都和操作HTML是完全相同的，但是在XML里混入XHTML标签就不一样了，它的本质依然是XML文档，只是嵌入了XHTML命名空间下的元素，所以相应的DOM操作会有一些不同。如果是自己写的纯JS可能还好，如果是用了jQuery之类假定DOM为HTML的库就会出现问题了，因此这也就是那个Polyfill库的局限性，用正常的XSLT执行<code class=\"language-plaintext highlighter-rouge\">document.constructor</code>会显示<code class=\"language-plaintext highlighter-rouge\">HTMLDocument</code>，而用这个Polyfill库执行完则是显示<code class=\"language-plaintext highlighter-rouge\">XMLDocument</code>。因此，直接套用为浏览器原生XSLT编写的旧样式文件，就有可能会出问题，但如果要考虑改XSLT的话那还不如重新写JS，然后用XHTML引入呢。</p>\n\n<h1 id=\"感想\">感想</h1>\n<p>虽然有一些技术会因为各种各样的原因消失，但这不代表我们就要妥协一些东西，总有一些不同的技术可以解决相同的问题，所以我们只需要用其他的技术去实现就好了。不过这也是没办法的事情，毕竟没人能改变浏览器厂商们的决策啊😂。</p>\n","url":"/2026/02/08/xslt.html","tags":["XML","Feed","XSLT","美化"],"date_published":"2026-02-08T00:00:00+08:00","date_modified":"2026-02-08T00:00:00+08:00","author":{"name":"mayx"}},{"id":"/2026/01/01/summary.html","title":"年终总结","summary":"这篇文章介绍了作者对2025年的年终总结，主要表达了对自身状态的担忧和对未来的不确定感。作者认为自己在记忆和思考能力方面有所下滑，稳定性较低，且未能抓住资产保值的机会。同时，文章也记录了AI技术的飞速发展，以及自己博客内容与时代脱节的现象。尽管对未来感到迷茫，作者仍然抱有一丝希望，期望在2026年做出正确的选择，避免陷入危险。","content_html":"<p>0 error(s), ∞ warning(s)<!--more--></p>\n\n<h1 id=\"2025年的状态\">2025年的状态</h1>\n<p>在2025年，感觉状态不如去年……由于没能做出正确的选择，还是有点糟糕。不过总的来说还没有引发关键性的错误，至少还能继续坚持下去。 <br />\n  在这一年中，感觉记忆和思考能力都有所下滑，看来是没把自己照顾好😂，不过看看这一年写的文章，看起来似乎比以前更流畅了，这也许是因为和AI聊得多了，以至于思维有点偏向AI了吧。 <br />\n  总的来说感觉自己的稳定性还是有点低了，但这可能不是我能独自解决的，也不知会有什么转机……</p>\n\n<h1 id=\"2025年发生的事情\">2025年发生的事情</h1>\n<p>回顾了一下<a href=\"/2025/01/01/summary.html\">去年的年终总结</a>，发现自己还是没能做到知行合一，在这一年里全球各类资产突然开始大幅升值，也就是说钱真的开始不值钱了……那时候想着买黄金，这一年下来却没能下定决心，最终错过了资产保值的机会。至于现在，似乎什么也做不了了……当然这对我的生活并没有造成什么严重的打击，只是感受到环境对自己的影响罢了。 <br />\n  至于AI……依然是一天比一天强，而各个公司对AI的投入相比去年也是极大的提升，当然出来的效果也是非常强，那时候的AI还是挺容易出错，但是现在AI解决问题的能力已经可以替代很多人了，不只是文本生成模型，今年的图像与视频生成模型也真的是发展到了以往完全不能想象的地步，真的可以做到一句话想要什么就有什么了。 <br />\n  另外，今年写的博客内容过于围绕博客本身了，以至于似乎不太跟得上时代，虽然我的博客也确实有点老旧了😆。只是看看以前的文章，都还有一些面向未来的趋势，而今年就有点“考古”了。相比于考古，去展望未来显然是更有意义的事情，只不过……真的感觉脑子不太好使，未来会发生什么，已经完全无法预测了。</p>\n\n<h1 id=\"展望2026年\">展望2026年</h1>\n<p>虽然不知道未来会发生什么，但毕竟还没有造成关键性的错误，还有修正的余地，只能希望未来能够做出正确的选择，不要让自己陷入危险的境地吧。</p>\n","url":"/2026/01/01/summary.html","date_published":"2026-01-01T00:00:00+08:00","date_modified":"2026-01-01T00:00:00+08:00","author":{"name":"mayx"}},{"id":"/2025/12/01/linux.html","title":"在浏览器中运行Linux的各种方法","summary":"这篇文章介绍了在浏览器中运行Linux的各种方法，从最初的纯JS虚拟机JSLinux，到后来的WASM虚拟机如v86、WebVM、WebCM，再到容器化方案container2wasm，以及直接将Linux内核编译为WASM的方案。作者详细对比了这些方案的优缺点，包括性能、兼容性、功能和开发难度。文章还提到了模仿Linux环境的WebContainers和JupyterLite，并最终认为虚拟机方案更靠谱，但对WASM的未来充满期待。作者最后表示，博客上添加类似功能的计划还在考虑中，目前主要分享了各种方法的探索过程。","content_html":"<p>浏览器已经无所不能了！<!--more--></p>\n\n<h1 id=\"起因\">起因</h1>\n<p>前段时间跟网友交流时，有人展示了他博客里的一个Linux终端模拟项目：<a href=\"https://github.com/Erzbir/jsnix\">jsnix</a>，看起来挺有意思的，里面甚至还藏了一个CTF。不过我感觉他这个终端和博客本身并没有真正联动起来，本质上只是一个模拟了Linux Shell行为的交互界面。除此之外我还发现了另一个风格类似的<a href=\"https://github.com/Luyoung0001/myWebsite\">个人主页</a>，它虽然也走了终端风格，但功能更简单，还原度也不算高。不过它至少和博客内容做了一些基础联动——尽管目前也只是做到列出文章这种程度😂，当然有这类功能的博客应该也不少，只是我发现的不太多……于是我就想，不如我也给自己的博客加一个类似的“命令行访问”功能，应该会很有趣。当然如果真要做的话，我肯定不会满足于只实现几个模拟指令——既然要做，就要追求真实感，至少得在浏览器上运行真实的Linux终端，才不会让人觉得出戏吧😋。</p>\n\n<h1 id=\"在浏览器中运行linux\">在浏览器中运行Linux</h1>\n<h2 id=\"虚拟机方案\">虚拟机方案</h2>\n<h3 id=\"纯js虚拟机\">纯JS虚拟机</h3>\n<p>要说到在浏览器上运行Linux，最先想到的应该就是<a href=\"https://bellard.org\">Fabrice Bellard</a>大神写的<a href=\"https://bellard.org/jslinux/\">JSLinux</a>吧，这可能是第一个在浏览器中实现的虚拟机（毕竟是最强虚拟机QEMU的作者编写的）。现在他的个人主页中展示的这个版本是WASM版本，而他最早写的是纯JS实现的。那个JS实现的版本现在在GitHub上有一个<a href=\"https://github.com/levskaya/jslinux-deobfuscated\">去混淆的版本</a>可以用作学习和研究，于是我顺手Fork了一份在GitHub Pages上部署作为<a href=\"https://mabbs.github.io/jslinux/\">演示</a>。 <br />\n  作为纯JS实现的x86虚拟机，性能估计是最差的，但相应的兼容性也最好，在Bellard当年写JSLinux的时候，还没有WASM这种东西呢，所以即使是在不支持WASM的IE11中，也可以正常运行。假如我想把它作为终端用在我的博客上，似乎也是个不错的选择，即使我完全看不懂代码，不知道如何实现JS和虚拟机的通信，它也预留了一个剪贴板设备，可以让我轻松地做到类似的事情，比如我在里面写个Bash脚本，通过它和外面的JS脚本联动来读取我的文章列表和内容，那也挺不错。 <br />\n  当然Bellard用纯JS编写虚拟机也不是独一份，他实现了x86的虚拟机，相应的也有人用纯JS实现了RISC-V的虚拟机，比如<a href=\"https://github.com/riscv-software-src/riscv-angel\">ANGEL</a>，看起来挺不错，所以同样也顺手<a href=\"https://mabbs.github.io/riscv-angel/\">搭了一份</a>。只不过它似乎用了一些更先进的语法，至少IE11上不能运行。 <br />\n  另外还有一个比较知名的项目，叫做<a href=\"https://github.com/s-macke/jor1k\">jor1k</a>，它模拟的是OpenRISC架构。只是这个架构目前已经过时，基本上没什么人用了，不过这里面还内置了几个演示的小游戏，看起来还挺有意思。 <br />\n  除了这些之外，其实能在浏览器上运行的Linux也不一定是个网页，有一个叫做<a href=\"https://github.com/ading2210/linuxpdf\">LinuxPDF</a>的项目可以让Linux运行在PDF中，它的原理和JSLinux差不多，所以需要PDF阅读器支持JS，看它的介绍貌似只能在基于Chromium内核的浏览器中运行，而且因为安全问题在PDF中有很多功能不能用，所以它的速度甚至比JSLinux还要慢，功能还很少，因此它基本上只是个PoC，没什么太大的意义。</p>\n<h3 id=\"wasm虚拟机\">WASM虚拟机</h3>\n<p>那还有别的方案吗？既然Bellard都选择放弃纯JS的JSLinux而选择了WASM，显然还有其他类似的项目，比如<a href=\"https://github.com/copy/v86\">v86</a>，这也是一个能在浏览器中运行的x86虚拟机，不过因为使用了WASM和JIT技术，所以效率要比纯JS的JSLinux高得多。另外作为虚拟机，自然是不止能运行Linux，其他的系统也能运行，在示例中除了Linux之外还有DOS和Windows之类的系统，功能还挺强大，如果能自己做个系统镜像在博客里运行，似乎也是不错的选择。 <br />\n  另外还有一个相对比较知名的叫<a href=\"https://github.com/leaningtech/webvm\">WebVM</a>，从效果上来说和v86几乎没有区别，同样使用了WASM和JIT技术，也都只支持32位x86，然而它的虚拟化引擎CheerpX是闭源产品，既然和v86都拉不开差距，不知道是谁给他们的信心把它作为闭源产品😅。不过看它的说明文档，其相比于v86的主要区别是实现了Linux系统调用，考虑到它不能运行其他操作系统，而且Linux内核也不能更换，那我想它可能是类似于WSL1的那种实现方案，也许性能上会比v86好一些吧……只不过毕竟是闭源产品，不太清楚具体实现了。 <br />\n  既然纯JS有RISC-V的虚拟机，WASM当然也有，比如<a href=\"https://github.com/edubart/webcm\">WebCM</a>。这个项目相比于其他的项目有个不太一样的地方，它把虚拟机、内核以及镜像打包成了一个单独的WASM文件……只是这样感觉并没有什么好处吧，改起来更加复杂了。 <br />\n  以上这些虚拟机方案各有不同，但是想做一个自己的镜像相对来说还是有点困难，于是我又发现了另一个项目：<a href=\"https://github.com/container2wasm/container2wasm\">container2wasm</a>，它可以让一个Docker镜像在浏览器中运行，当然实际实现其实和Docker并没有什么关系，本质还是虚拟机，只是制作镜像的时候可以直接用Docker镜像，方便了不少，但Docker镜像一般也都很大，所以第一次加载可能要下载很长时间。另外它还有一个优势，可以使用<a href=\"https://bochs.sourceforge.io/\">Bochs</a>运行x86_64的镜像，不像v86和WebVM只能模拟32位的x86（虽然Bochs的运行效率可能会差一些），而且可以使用WASI直接访问网络，不像以上几个项目如果需要访问网络需要用到中继服务。当然访问网络这个还是要受浏览器本身的跨域策略限制。总之从项目本身来说感觉也算是相当成熟了，尤其能用Docker镜像的话……我甚至可以考虑直接用<a href=\"https://hub.docker.com/r/unmayx/mabbs\">镜像</a>在线演示我曾经的<a href=\"https://github.com/Mabbs/Mabbs.Project\">Mabbs</a>项目😋。</p>\n<h2 id=\"纯wasm方案\">纯WASM方案</h2>\n<p>其实想要在浏览器中运行Linux也不一定非得要用虚拟机，用虚拟机相当于是把其他指令集的机器码翻译为WASM，然后浏览器还得再翻译成宿主机CPU支持的指令集，然而WASM本身其实也算是一种指令集，各种编译型语言编写的程序也能编译出WASM的产物，比如<a href=\"https://github.com/ffmpegwasm/ffmpeg.wasm\">FFmpeg</a>。所以Linux内核也完全可以被编译成WASM，正好前段时间我看新闻说<a href=\"https://github.com/joelseverin\">Joel Severin</a>做了这么一个<a href=\"https://github.com/joelseverin/linux-wasm\">项目</a>，对Linux内核做了一些修改使其可以被编译为WASM程序，我试了一下，貌似在Safari浏览器中不能正常工作……Chrome浏览器倒是没问题，不过即使这样用起来BUG也很多，随便执行几条命令就会冻结，体验不是很好。 <br />\n  沿着这个项目，我又找到一个由<a href=\"https://github.com/tombl\">Thomas Stokes</a>制作的<a href=\"https://github.com/tombl/linux\">项目</a>，和Joel的项目差不多，但我测了一下可以在Safari上运行，感觉这个项目更完善，不过之前那个项目上了新闻，所以⭐️数比这个更高😂。 <br />\n  于是我把它复制了一份，在我的GitHub Pages上<a href=\"https://mabbs.github.io/linux/\">部署</a>了，但直接用仓库中的源代码会显示“Error: not cross origin isolated”，然而在Thomas自己部署的网站中可以正常打开，我看了一眼貌似是因为在GitHub Pages中没有<a href=\"https://web.dev/articles/coop-coep\">COOP和COEP响应头</a>导致的。Linux作为多任务操作系统来说，当然要运行多个进程，而Linux要管理它们就需要跨线程（Web Worker）读取内存的能力，所以用到了SharedArrayBuffer对象。不过由于CPU曾经出过“幽灵”漏洞，导致现代浏览器默认禁止使用SharedArrayBuffer对象，除非在服务器中配置COOP和COEP响应头才可以用，但是Joel的项目也是在GitHub Pages上运行的啊，为什么可以正常运行？看了源代码后才发现原来可以<a href=\"/2025/08/01/sw-proxy.html\">用Service Worker作为反向代理</a>来给请求的资源加上响应头，他使用的是<a href=\"https://github.com/gzuidhof/coi-serviceworker\">coi-serviceworker</a>这个项目，所以我也给我部署的代码中加上了这个脚本，总算是解决了这个问题。 <br />\n  部署好这个项目之后我试用了几下，虽然有些操作仍然会导致系统冻结，但相比Joel的版本来说已经好多了。很遗憾的是目前这个WASM Linux还不能和外界通信，所以作用不是很大，另外如果想在里面运行其他二进制程序还是相当困难，首先在WASM中不存在内存管理单元（MMU），不能实现隔离和分页的功能，另外以WASM作为指令集的环境下编译的产物也得是WASM，所以目前来说想用它做点什么还是不太合适。 <br />\n  以上的这两个将Linux内核编译为WASM的方案其实相当于给内核打补丁，然后把浏览器看作是虚拟机来运行，有点像Xen，不过还有一种让Linux原生运行在WASM的<a href=\"https://github.com/okuoku/wasmlinux-project\">项目</a>，它将<a href=\"https://github.com/lkl/linux\">Linux kernel library</a>编译为了WASM。那么什么是LKL？简单来说它有点像Wine，就和我之前所说的<a href=\"/2024/12/08/simulator.html\">OS模拟器</a>差不多，可以提供一个环境，让程序以为自己在Linux下运行，所以说它和之前的实现有一些不一样，它不存在内核模式，更像是一个普通的程序，而不是系统了。 <br />\n  不过这个项目的体验也比较一般，它无论做什么都得按两次回车，看说明的意思貌似是因为没有实现异步信号传递，所以要手动打断<code class=\"language-plaintext highlighter-rouge\">read</code>函数，而且也经常莫名其妙卡住，总体体验不如Thomas的项目。</p>\n<h2 id=\"模仿的linux\">模仿的Linux</h2>\n<p>其实如果只是想做到和Linux类似的功能，也有这样的项目，比如<a href=\"https://github.com/stackblitz/webcontainer-core\">WebContainers</a>，它没有运行Linux系统，但是模拟了一个环境，可以在浏览器中运行Node.js以及Python之类的脚本，而且让脚本以为自己在Linux中运行，除此之外它还能用Service Worker把环境中运行的端口映射给浏览器，可以算是真的把服务端跑在浏览器上了。这个技术还挺高级，不过想想也挺合理，毕竟有WASI，直接编译为WASM的程序也不需要操作系统就能运行，所以用WASM去运行Linux本来就有点多此一举了😂。不过很遗憾的是WebContainers也不是开源软件，要使用它只能引入StackBlitz的资源，而且全网完全没有开源的替代品……也许在浏览器上进行开发本来就是个伪需求，所以没什么人实现吧。 <br />\n  当然如果只是实现和WebContainers类似的功能，<a href=\"https://github.com/jupyterlite/jupyterlite\">JupyterLite</a>也可以实现，它可以在浏览器中像使用本地JupyterLab那样运行JS和Python，还能用Matplotlib、Numpy、Pandas进行数据处理，功能可以说非常强大，而且还是开源软件。只不过它没有模拟操作系统的环境，所以不能运行Node.js项目，也不能提供终端，所以不太符合我想要的效果……</p>\n\n<h1 id=\"总结\">总结</h1>\n<p>总的来说，如果想要在博客上搞Linux终端，目前来看似乎虚拟机方案会更靠谱一些，虽然相对来说效率可能比较低，但毕竟目前WASM方案的可靠性还是不够，而且考虑到还需要配置额外的响应头，感觉有点麻烦，当然我觉得WASM还是算未来可期的，如果成熟的话肯定还是比虚拟机要更好一些，毕竟没有转译性能肯定要好不少。至于WebContainers这种方案……等什么时候有开源替代再考虑吧，需要依赖其他服务感觉不够可靠。只是也许我的想法只需要模拟一个合适的文件系统，然后给WASM版的Busybox加个终端就够了？不过这样感觉Bug会更多😂。 <br />\n  至于打算什么时候给博客加上这个功能？应该也是未来可期吧😝，目前还没什么好的思路，仅仅是分享一下在浏览器中运行Linux的各种方法。</p>\n","url":"/2025/12/01/linux.html","tags":["浏览器","Linux","虚拟机","WASM"],"date_published":"2025-12-01T00:00:00+08:00","date_modified":"2025-12-01T00:00:00+08:00","author":{"name":"mayx"}},{"id":"/2025/11/01/mirrors.html","title":"让博客永恒的探索","summary":"这篇文章讲述了作者为了提高博客的可靠性，探索利用被滥用的Git平台进行博客镜像的想法和实践。作者发现一些Git实例存在大量空仓库和异常用户，怀疑是SEO公司滥用，因此决定利用这些平台进行博客镜像备份，以应对平台倒闭或数据丢失的风险。作者选择Gitea和Forgejo平台作为目标，编写脚本自动注册账号并导入博客仓库，实现了自动化镜像分发。作者也意识到此类平台的稳定性存在不确定性，并思考了“量”和“质”两种方式确保博客永恒性的优劣，最终认为建立一个活跃的、自动执行维护操作的网络可能更有效。文章最后展示了作者创建的Git镜像列表，并表达了对博客永恒性的思考。","content_html":"<p>Mayx Forever Project – Phase II<!--more--></p>\n\n<h1 id=\"起因\">起因</h1>\n<p>在前段时间，我通过<a href=\"https://github.com/ecosyste-ms/repos\">Ecosyste.ms: Repos</a>找到了不少Git平台的实例，也在探索的过程中发现和了解了<a href=\"/2025/08/10/tilde.html\">Tilde社区</a>。当然仅仅是这样显然还不够，里面的实例太多了，显然还有一些其他值得探索的东西。 <br />\n  在我查看这里面的某些Gitea实例时，发现了一些奇怪的事情，有些实例的仓库数和用户数多得离谱，正常来说除了几个大的平台，绝大多数应该只有几十到几百个仓库，这就让我有点好奇了。于是当我点进去之后发现，里面有一大堆仓库都是空的，而且用户名和仓库名都非常有规律，看起来都是一组单词加4位数字命名的，显然这不是正常现象，应该是一种有组织的行为。</p>\n\n<h1 id=\"被spam滥用的git实例\">被SPAM滥用的Git实例</h1>\n<p>于是我就简单看了一下这些异常的仓库和用户的规律，可以发现每个用户都填了个人主页地址，然后个人简介里大都是一段广告词。另外这些个人主页的地址看起来很多都是利用公开可注册的服务，比如开源的有各种Git平台、Wiki，以及论坛，还有一些允许用户写个人主页的新闻网站。在这其中，Git平台大多都没有广告文章，基本上都是通过个人主页地址链接到网站，而Wiki之类的就会写一些篇幅比较长的广告文章。 <br />\n  另外这些平台但凡还在开放注册，就会被以大约每分钟一次的速度自动注册新账号……所以这种事情到底是谁在干呢？我翻了几个仓库，里面的广告多种多样，有些看起来还算正常，还有一些看起来有些黑产。其中我发现有一家叫做“悠闲羊驼SEO”的网站，看介绍主要是给加密货币、对冲基金和博彩网站提供SEO优化的，再加上这些被滥用的平台里也有不少类似的广告，所以我怀疑这些滥用的行为就是这家SEO公司做的（虽然没有证据😂）。</p>\n\n<h1 id=\"永恒的探索\">永恒的探索</h1>\n<p>看到这么多Git平台被滥用，我就有个想法，之前为了保证可靠性给博客加了不少<a href=\"/proxylist.html\">镜像</a>，除此之外也在互联网档案馆、<a href=\"https://archive.softwareheritage.org/\">Software Heritage</a>、Git Protect等存档服务中上传了备份，而且也在IPFS和Arweave等Web3平台上有相应的副本，但是我觉得还不够，再大的平台也有可能会倒闭，IPFS不Pin还会被GC，至于Arweave前段时间看了一眼整个网络才几百个节点，感觉一点也不靠谱……所以我应该好好利用这些平台提高我博客的可靠性。 <br />\n  既然那些Spammer只是为了SEO去滥用这些平台，不如让我利用这些平台给我的博客进行镜像吧！至于使用哪个平台……显然用Git平台方便一些，所以接下来就该考虑一下怎么样分发了。</p>\n\n<h1 id=\"镜像的分发\">镜像的分发</h1>\n<p>在Git平台中也有很多选择，最知名的是GitLab，不过GitLab有点复杂，接口不太好用……而且很多实例没有开镜像仓库的功能，毕竟如果我每次更新都给一堆仓库推送太费时间了，我打算让各个平台主动从GitHub上拉取我的最新代码。正好Gogs系列的平台基本上都默认支持镜像仓库，不过在我实际使用的时候发现Gogs默认情况下注册要验证码……写识别验证码感觉又挺麻烦，而Gogs的两个分支——Gitea和Forgejo反倒没有……还挺奇怪，所以接下来我的目标主要就是Gitea和Forgejo的实例了。 <br />\n  既然决定好目标，我就得先发现它们了，那些Spammer在注册的时候会在个人主页里写不同的网站，其中也有一些类Gogs平台，那么我可以先找一个Gitea平台，用接口读取这些网站，然后再调类Gogs专属的接口来检测这些网站哪个是类Gogs平台，于是我就写了个<a href=\"https://github.com/Mabbs/spam_gogs-like_scanner/blob/main/main.py\">脚本</a>来找到它们。 <br />\n  找到这些平台之后就该注册了，还好Gitea和Forgejo默认没有验证码，注册起来也很简单，随便写了个函数实现了一下：</p>\n<div class=\"language-python highlighter-rouge\"><div class=\"highlight\"><pre class=\"highlight\"><code><span class=\"k\">def</span> <span class=\"nf\">register_account</span><span class=\"p\">(</span><span class=\"n\">session</span><span class=\"p\">,</span> <span class=\"n\">url</span><span class=\"p\">,</span> <span class=\"n\">email</span><span class=\"p\">,</span> <span class=\"n\">username</span><span class=\"p\">,</span> <span class=\"n\">password</span><span class=\"p\">):</span>\n    <span class=\"k\">try</span><span class=\"p\">:</span>\n        <span class=\"n\">resp</span> <span class=\"o\">=</span> <span class=\"n\">session</span><span class=\"p\">.</span><span class=\"n\">get</span><span class=\"p\">(</span><span class=\"n\">url</span> <span class=\"o\">+</span> <span class=\"s\">\"/user/sign_up\"</span><span class=\"p\">)</span>\n        <span class=\"n\">soup</span> <span class=\"o\">=</span> <span class=\"n\">BeautifulSoup</span><span class=\"p\">(</span><span class=\"n\">resp</span><span class=\"p\">.</span><span class=\"n\">text</span><span class=\"p\">,</span> <span class=\"s\">\"html.parser\"</span><span class=\"p\">)</span>\n        <span class=\"n\">csrf_token</span> <span class=\"o\">=</span> <span class=\"n\">soup</span><span class=\"p\">.</span><span class=\"n\">find</span><span class=\"p\">(</span><span class=\"s\">\"input\"</span><span class=\"p\">,</span> <span class=\"p\">{</span><span class=\"s\">\"name\"</span><span class=\"p\">:</span> <span class=\"s\">\"_csrf\"</span><span class=\"p\">}).</span><span class=\"n\">get</span><span class=\"p\">(</span><span class=\"s\">\"value\"</span><span class=\"p\">)</span>\n\n        <span class=\"n\">payload</span> <span class=\"o\">=</span> <span class=\"p\">{</span>\n            <span class=\"s\">\"_csrf\"</span><span class=\"p\">:</span> <span class=\"n\">csrf_token</span><span class=\"p\">,</span>\n            <span class=\"s\">\"user_name\"</span><span class=\"p\">:</span> <span class=\"n\">username</span><span class=\"p\">,</span>\n            <span class=\"s\">\"email\"</span><span class=\"p\">:</span> <span class=\"n\">email</span><span class=\"p\">,</span>\n            <span class=\"s\">\"password\"</span><span class=\"p\">:</span> <span class=\"n\">password</span><span class=\"p\">,</span>\n            <span class=\"s\">\"retype\"</span><span class=\"p\">:</span> <span class=\"n\">password</span><span class=\"p\">,</span>\n        <span class=\"p\">}</span>\n        <span class=\"n\">headers</span> <span class=\"o\">=</span> <span class=\"p\">{</span><span class=\"s\">\"Content-Type\"</span><span class=\"p\">:</span> <span class=\"s\">\"application/x-www-form-urlencoded\"</span><span class=\"p\">}</span>\n        <span class=\"n\">resp</span> <span class=\"o\">=</span> <span class=\"n\">session</span><span class=\"p\">.</span><span class=\"n\">post</span><span class=\"p\">(</span><span class=\"n\">url</span> <span class=\"o\">+</span> <span class=\"s\">\"/user/sign_up\"</span><span class=\"p\">,</span> <span class=\"n\">data</span><span class=\"o\">=</span><span class=\"n\">payload</span><span class=\"p\">,</span> <span class=\"n\">headers</span><span class=\"o\">=</span><span class=\"n\">headers</span><span class=\"p\">)</span>\n        <span class=\"k\">if</span> <span class=\"s\">\"flash-success\"</span> <span class=\"ow\">in</span> <span class=\"n\">resp</span><span class=\"p\">.</span><span class=\"n\">text</span><span class=\"p\">:</span>\n            <span class=\"k\">print</span><span class=\"p\">(</span>\n                <span class=\"sa\">f</span><span class=\"s\">\"Successfully registered at </span><span class=\"si\">{</span><span class=\"n\">url</span><span class=\"si\">}</span><span class=\"s\"> with username: </span><span class=\"si\">{</span><span class=\"n\">username</span><span class=\"si\">}</span><span class=\"s\">, email: </span><span class=\"si\">{</span><span class=\"n\">email</span><span class=\"si\">}</span><span class=\"s\">, password: </span><span class=\"si\">{</span><span class=\"n\">password</span><span class=\"si\">}</span><span class=\"s\">\"</span>\n            <span class=\"p\">)</span>\n            <span class=\"n\">save_to_file</span><span class=\"p\">(</span>\n                <span class=\"s\">\"instances_userinfo.csv\"</span><span class=\"p\">,</span> <span class=\"sa\">f</span><span class=\"s\">\"</span><span class=\"si\">{</span><span class=\"n\">url</span><span class=\"si\">}</span><span class=\"s\">,</span><span class=\"si\">{</span><span class=\"n\">username</span><span class=\"si\">}</span><span class=\"s\">,</span><span class=\"si\">{</span><span class=\"n\">email</span><span class=\"si\">}</span><span class=\"s\">,</span><span class=\"si\">{</span><span class=\"n\">password</span><span class=\"si\">}</span><span class=\"s\">\"</span>\n            <span class=\"p\">)</span>\n            <span class=\"k\">return</span> <span class=\"bp\">True</span>\n        <span class=\"k\">else</span><span class=\"p\">:</span>\n            <span class=\"k\">print</span><span class=\"p\">(</span><span class=\"sa\">f</span><span class=\"s\">\"Failed to register at </span><span class=\"si\">{</span><span class=\"n\">url</span><span class=\"si\">}</span><span class=\"s\">.\"</span><span class=\"p\">)</span>\n            <span class=\"k\">return</span> <span class=\"bp\">False</span>\n    <span class=\"k\">except</span> <span class=\"nb\">Exception</span> <span class=\"k\">as</span> <span class=\"n\">e</span><span class=\"p\">:</span>\n        <span class=\"k\">print</span><span class=\"p\">(</span><span class=\"sa\">f</span><span class=\"s\">\"Error registering at </span><span class=\"si\">{</span><span class=\"n\">url</span><span class=\"si\">}</span><span class=\"s\">: </span><span class=\"si\">{</span><span class=\"n\">e</span><span class=\"si\">}</span><span class=\"s\">\"</span><span class=\"p\">)</span>\n        <span class=\"k\">return</span> <span class=\"bp\">False</span>\n</code></pre></div></div>\n<p>注册完之后就该导入仓库了，只是通过模拟前端发包的方式在Gitea和Forgejo中不同版本的表现可能不太一样，所以我想用API实现，但是API又得有API Key，生成API Key还得模拟前端发包😥……所以怎么都绕不过。 <br />\n  不过这个生成API Key还挺麻烦，有些版本不需要配权限范围，有些配权限的参数还不一样……不过我就是随便一写，凑合用吧，像那些专业的Spammer应该是有更强大的脚本判断各种情况。 <br />\n  最后我还是选择用API导入，又写了个函数：</p>\n<div class=\"language-python highlighter-rouge\"><div class=\"highlight\"><pre class=\"highlight\"><code><span class=\"k\">def</span> <span class=\"nf\">import_repos</span><span class=\"p\">(</span><span class=\"n\">token</span><span class=\"p\">,</span> <span class=\"n\">url</span><span class=\"p\">):</span>\n    <span class=\"k\">try</span><span class=\"p\">:</span>\n        <span class=\"n\">response</span> <span class=\"o\">=</span> <span class=\"n\">requests</span><span class=\"p\">.</span><span class=\"n\">post</span><span class=\"p\">(</span>\n            <span class=\"n\">url</span><span class=\"o\">=</span><span class=\"n\">url</span> <span class=\"o\">+</span> <span class=\"s\">\"/api/v1/repos/migrate\"</span><span class=\"p\">,</span>\n            <span class=\"n\">headers</span><span class=\"o\">=</span><span class=\"p\">{</span>\n                <span class=\"s\">\"Authorization\"</span><span class=\"p\">:</span> <span class=\"s\">\"token \"</span> <span class=\"o\">+</span> <span class=\"n\">token</span><span class=\"p\">,</span>\n            <span class=\"p\">},</span>\n            <span class=\"n\">json</span><span class=\"o\">=</span><span class=\"p\">{</span>\n                <span class=\"s\">\"repo_name\"</span><span class=\"p\">:</span> <span class=\"s\">\"blog\"</span><span class=\"p\">,</span>\n                <span class=\"s\">\"mirror_interval\"</span><span class=\"p\">:</span> <span class=\"s\">\"1h\"</span><span class=\"p\">,</span>\n                <span class=\"s\">\"mirror\"</span><span class=\"p\">:</span> <span class=\"bp\">True</span><span class=\"p\">,</span>\n                <span class=\"s\">\"description\"</span><span class=\"p\">:</span> <span class=\"s\">\"Mayx's Home Page\"</span><span class=\"p\">,</span>\n                <span class=\"s\">\"clone_addr\"</span><span class=\"p\">:</span> <span class=\"s\">\"https://github.com/Mabbs/mabbs.github.io\"</span><span class=\"p\">,</span>\n            <span class=\"p\">},</span>\n        <span class=\"p\">)</span>\n        <span class=\"k\">if</span> <span class=\"n\">response</span><span class=\"p\">.</span><span class=\"n\">status_code</span> <span class=\"o\">==</span> <span class=\"mi\">201</span><span class=\"p\">:</span>\n            <span class=\"k\">print</span><span class=\"p\">(</span><span class=\"s\">\"Repository import initiated successfully.\"</span><span class=\"p\">)</span>\n            <span class=\"n\">save_to_file</span><span class=\"p\">(</span><span class=\"s\">\"repo_list.txt\"</span><span class=\"p\">,</span> <span class=\"n\">url</span> <span class=\"o\">+</span> <span class=\"s\">\"/mayx/blog\"</span><span class=\"p\">)</span>\n            <span class=\"k\">return</span> <span class=\"bp\">True</span>\n        <span class=\"k\">else</span><span class=\"p\">:</span>\n            <span class=\"k\">print</span><span class=\"p\">(</span><span class=\"sa\">f</span><span class=\"s\">\"Failed to initiate repository import. Status code: </span><span class=\"si\">{</span><span class=\"n\">response</span><span class=\"p\">.</span><span class=\"n\">status_code</span><span class=\"si\">}</span><span class=\"s\">\"</span><span class=\"p\">)</span>\n            <span class=\"k\">print</span><span class=\"p\">(</span><span class=\"sa\">f</span><span class=\"s\">\"Response: </span><span class=\"si\">{</span><span class=\"n\">response</span><span class=\"p\">.</span><span class=\"n\">text</span><span class=\"si\">}</span><span class=\"s\">\"</span><span class=\"p\">)</span>\n            <span class=\"k\">return</span> <span class=\"bp\">False</span>\n    <span class=\"k\">except</span> <span class=\"nb\">Exception</span> <span class=\"k\">as</span> <span class=\"n\">e</span><span class=\"p\">:</span>\n        <span class=\"k\">print</span><span class=\"p\">(</span><span class=\"sa\">f</span><span class=\"s\">\"Error updating website: </span><span class=\"si\">{</span><span class=\"n\">e</span><span class=\"si\">}</span><span class=\"s\">\"</span><span class=\"p\">)</span>\n        <span class=\"k\">return</span> <span class=\"bp\">False</span>\n</code></pre></div></div>\n<p>脚本写好之后我就只需要重复扫描、注册、导入的步骤就行了，这样我的镜像就会越来越多，而且用类Gogs的实例还有一个好处就是不需要我手动推送，它会自动定时拉取我的仓库保持最新，这样也许只要人类文明存在我的博客就会在某处存在吧🤣。 <br />\n  最后我创建的Git镜像可以在<a href=\"/other_repo_list.html\">这里</a>看到，看起来还是挺壮观啊😋。只不过像这种会被Spammer随便注册的Git平台实例很难说它能活多久，如果没人管而且是云服务器也许到期就没了，有人管的话应该不会允许这么多Spam行为吧……</p>\n\n<h1 id=\"感想\">感想</h1>\n<p>不知道用“量”来确保博客的永恒更可靠……还是用“质”的方式更好呢？其实我觉得还得是活动的更好，就像我以前所说的，如果有<a href=\"/2024/11/02/trojan.html#%E6%84%9F%E6%83%B3\">僵尸网络</a>，自动帮我执行发现并推送的操作，也许比等着这些实例逐渐消失更好吧……只不过那样可能就不太友好了😂。</p>\n","url":"/2025/11/01/mirrors.html","tags":["Git","Gitea","镜像","Forever"],"date_published":"2025-11-01T00:00:00+08:00","date_modified":"2025-11-01T00:00:00+08:00","author":{"name":"mayx"}},{"id":"/2025/10/12/recover.html","title":"一次找回GitHub上被删除仓库的经历","summary":"这篇文章讲述了作者通过GitHub的Fork特性找回一个被删除的Brainfuck可视化演示仓库的经历。由于原仓库和作者主页都已消失，作者推测GitHub在Fork时会共享对象库，只要有任意一个Fork仓库存在，GitHub就会保留所有对象，从而可以通过找到一个Fork仓库的最新提交Hash值来还原目标仓库。作者通过Linux内核仓库的Fork进行验证，随后在互联网档案馆上找到目标仓库的Fork以及其Hash值，最终通过Git命令将本地仓库的HEAD指针指向目标提交，成功恢复了该仓库的代码，并将其部署到自己的GitHub Pages上。最后，作者发现Software Heritage组织会保存所有代码，因此在遇到类似情况时可以直接通过该平台进行查找。","content_html":"<p>在GitHub中寻找踪迹也许是非常简单的事情……<!--more--></p>\n\n<h1 id=\"起因\">起因</h1>\n<p>前段时间，有人和我聊天的时候提到了<a href=\"https://esolangs.org/wiki/Brainfuck\">Brainfuck</a>语言，让我回想起了高中时写的<a href=\"/%E6%BC%94%E8%AE%B2%E7%A8%BF/2018/06/20/Coding.html\">演讲稿</a>。那时候我在演讲时也介绍了Brainfuck语言。对于Brainfuck的解释器，<a href=\"https://rosettacode.org/wiki/RCBF\">各种语言都可以实现</a>，不过我当时为了方便理解用了一个在GitHub Pages上的网站，用可视化的方式演示了它的运行过程，效果很不错。现在既然聊到了，自然就想分享一下这个<a href=\"https://fatiherikli.github.io/brainfuck-visualizer/\">演示的网站</a>，但我正想打开时，发现网站已经404了😰。 <br />\n  在GitHub Pages上的网站都有对应的仓库，现在不仅原仓库消失了，连作者的<a href=\"https://github.com/fatiherikli\">首页</a>都打不开，看样子是完全退出GitHub了……那么我想找到这个网站的想法就无法实现了吗？不过GitHub有些有意思的特性也许能帮助我找回这个网站。</p>\n\n<h1 id=\"github的特性\">GitHub的特性</h1>\n<p>在GitHub中，一个普通的仓库可能没有什么特别的，也许就是服务器上的一个文件夹。但是当仓库被其他人Fork的时候就不一样了，在执行Fork时，显然GitHub不会完整复制整个仓库。否则，同一个仓库在服务器上会占用双倍空间，这显然不合理。另外，想想Git的结构：它由提交对象和分支指针构成，每次提交都有唯一的Hash值且不会冲突。因此可以推测，GitHub在实现Fork时，所有被Fork的仓库可能共享同一个对象库，而每个用户仓库只保存指针，这样所有仓库只会占用增量空间，而不会存储重复内容。 <br />\n  但这样也会带来一个问题，首先因为很多人可能要共用一部分对象，所以也很难确认对象的所有权，而且也因为这个原因所有的对象要能被所有人访问。因此在整个Fork网络中，只要有一个仓库存在，GitHub就必须保留所有的对象，而且每个仓库都能访问这个网络中所有的对象。为了验证这一点，我们可以用最知名的<a href=\"https://github.com/torvalds/linux\">Linux内核仓库</a>做个示例。 <br />\n  首先对Linux仓库进行Fork，然后我们可以随便做一些改动，比如在README中写“Linux已经被我占领了😆”之类的内容，提交到自己的仓库，并且记下提交的Hash值，接下来就可以把自己的仓库删掉了。如果上面的猜想是正确的，那么在这个Fork网络中的任何一个仓库查看我刚刚的提交应该都可以，于是我直接在主仓库拼上了<a href=\"https://github.com/torvalds/linux/tree/78e1d0446b94012da8639aa2b157d4f2dee481ce\">提交的Hash值</a>（顺便一说只要值唯一，和其他的提交不冲突，<a href=\"https://github.com/torvalds/linux/tree/78e1d044\">短的Hash值</a>也可以），果不其然能找到刚刚修改的内容，这样一来，只要GitHub和任意一个Linux仓库的Fork还存在，这个提交就永远存在了😝。</p>\n\n<h1 id=\"找回仓库\">找回仓库</h1>\n<p>那么接下来找回之前网站的方案就很简单了，我只要找到网站仓库的任意一个Fork，然后只要知道最新的提交Hash，我就可以还原最新的仓库了。Fork倒是好找，随便搜一下<a href=\"https://github.com/ashupk/brainfuck-visualizer\">就能找到一个</a>。这个Fork的最新提交是2016年，但要想找到我当年演讲的版本至少到2018年之后。不过这个Hash值也不太好找，虽然理论上爆破短Hash值也可以，但是感觉太麻烦了，没有那个必要，所以我干脆直接去互联网档案馆看看能找到的<a href=\"https://web.archive.org/web/20201229125043/https://github.com/fatiherikli/brainfuck-visualizer/\">最新的仓库页面</a>吧，这样我就能找到它的Hash值了，然后我再把Fork仓库的地址和Hash拼到一起，就看得到最新代码了。 <br />\n  当然，仅仅看到代码还不够。我想Fork这个项目并在自己的GitHub Pages上部署一份。有没有什么好办法可以将我仓库的HEAD指针指向最新的提交呢？其实很简单，首先我要Fork这个Fork仓库，然后Clone我的仓库到本地。不过，此时Clone下来的仓库并不包含GitHub上完整的对象库，因此直接checkout或reset是不行的。这时Hash值就派上用场了，通过fetch拉取对应提交后，就可以进行上述操作。具体命令如下：</p>\n<div class=\"language-bash highlighter-rouge\"><div class=\"highlight\"><pre class=\"highlight\"><code>git fetch origin &lt;commit-hash&gt;\ngit reset <span class=\"nt\">--hard</span> &lt;commit-hash&gt;\ngit push origin master\n</code></pre></div></div>\n<p>最终我就获得了包含<a href=\"https://github.com/Mabbs/brainfuck-visualizer\">最新代码</a>的<a href=\"https://mabbs.github.io/brainfuck-visualizer/\">Brainfuck可视化演示</a>了🎉。</p>\n\n<h1 id=\"结局\">结局</h1>\n<p>后来我才知道，原来有一个专门的组织<a href=\"https://archive.softwareheritage.org\">Software Heritage</a>会保存所有代码，根本没必要搞这些花里胡哨的操作😂，像这个仓库也是能很轻易在<a href=\"https://archive.softwareheritage.org/browse/origin/directory/?origin_url=https://github.com/fatiherikli/brainfuck-visualizer\">上面</a>找到，这下以后知道了，再遇到类似情况就可以直接去Software Heritage查找，而不必在互联网档案馆上找线索瞎折腾了🤣。</p>\n","url":"/2025/10/12/recover.html","tags":["GitHub","Git","代码恢复","软件存档"],"date_published":"2025-10-12T00:00:00+08:00","date_modified":"2025-10-12T00:00:00+08:00","author":{"name":"mayx"}},{"id":"/2025/09/01/quine.html","title":"关于ZIP Quine与自产生程序的探索","summary":"这篇文章主要介绍了作者在博客部署过程中，对ZIP Quine（自包含压缩包）和自产生程序的探索过程。作者起初想利用压缩包实现离线浏览，但遇到了压缩包不包含自身的问题。随后，作者回顾了ZIP Quine的原理，如droste.zip，以及如何通过DEFLATE压缩算法的LZ77编码实现自包含。作者尝试了Russ Cox的方案，但发现由于压缩格式限制，实际操作中存在数据容量的限制，无法存下整个博客。尽管如此，作者还是研究了嵌套循环的ZIP Quine，如Ruben Van Mello的论文中所描述的，尽管空间仍然有限。探索过程中，作者还学习了自产生程序（Quine）的概念，包括其实现原理和各种编程语言中的例子。作者最后感慨，探索过程中的收获比原本的目标更重要。","content_html":"<p>描述自己的代码……是一种什么样的感觉？<!--more--></p>\n\n<h1 id=\"起因\">起因</h1>\n<p>前段时间我在折腾<a href=\"/2025/08/10/tilde.html#%E4%BD%BF%E7%94%A8git-hooks%E8%87%AA%E5%8A%A8%E9%83%A8%E7%BD%B2%E5%8D%9A%E5%AE%A2\">博客部署</a>的时候，回顾起了好久以前写的<a href=\"/deploy.sh\">部署脚本</a>。对于全站打包的这个步骤，本来我打算利用这个压缩包结合<a href=\"/2025/08/01/sw-proxy.html\">Service Worker做离线浏览</a>，但因为没有合适的方案所以放弃了。而现在对于这个压缩包，我又有了一个特别的想法。事实上在这个下载全站的压缩包中，里面的内容和实际的网站并不完全相同，因为在这个压缩包里缺少了压缩包本身。所以把这个压缩包解压之后直接当作网站打开，会发现下载压缩包的链接是无效的，除非在解压之后把压缩包移动到网站里才行…… <br />\n  于是我就在想有没有一种可能可以让压缩包解压之后里面又包含了这个压缩包本身？似乎是个不太可能的事情，但我以前听过类似的东西，也许并非不可能？所以这次就来探索一下吧。</p>\n\n<h1 id=\"自包含压缩包的探索\">自包含压缩包的探索</h1>\n<p>在很久之前，我见到过一个很知名的自包含压缩包（又称为ZIP Quine），叫做<a href=\"https://alf.nu/s/droste.zip\">droste.zip</a>，是由Erling Ellingsen<a href=\"https://web.archive.org/web/20090106171423/http://tykje.com/code/useless/zip-file-quine\">在2005年制作</a>出来的。当时我只知道它很神奇，原理什么的并不清楚，另外在网上也基本上找不到类似的压缩包。现在再回看时发现<a href=\"https://alf.nu/ZipQuine\">介绍</a>里包含了一些相关的链接，甚至还有一篇能自己制作类似压缩包的论文，所以接下来就可以看一下这些链接来理解这种压缩包是如何制作的了。 <br />\n  关于原理方面，先看<a href=\"https://github.com/wgreenberg\">Will Greenberg</a>制作的一个<a href=\"https://wgreenberg.github.io/quine.zip/\">示例</a>，在这里面有一个谜题，使用“print M”（原样输出接下来的M行输入内容）和“repeat M N”（从倒数第N行的输出内容开始，重复M行）这两个指令让最终执行的结果和输入的指令完全相同。这正是对DEFLATE压缩算法所使用的LZ77编码的一种简化模拟，也就是说只要解决了这个问题，就可以让压缩包在解压时原样输出自己了。 <br />\n  这个问题看起来还挺复杂，不过在仓库的<a href=\"https://github.com/wgreenberg/quine.zip/issues/1\">Issues</a>就有人给出了几种解法（当然，这个题目解法不唯一），所以在理论上应该是可行的，那么接下来就需要研究压缩文件的格式来实现它了。</p>\n<h2 id=\"实现zip-quine的探索\">实现ZIP Quine的探索</h2>\n<p>在<a href=\"https://swtch.com/~rsc/\">Russ Cox</a>写的《<a href=\"https://research.swtch.com/zip\">Zip Files All The Way Down</a>》文章中，同样说明了这个原理，而且给出了一个方案，让上述这两个命令除了能够对命令本身的重复以外，还可以添加一些额外数据，这样才能做到构建一个压缩包文件。按照文章的描述，如果用之前谜题的规则来说，我们设头和尾的内容都是“print 0”，那么Cox给出的方案如下：</p>\n<div class=\"language-plaintext highlighter-rouge\"><div class=\"highlight\"><pre class=\"highlight\"><code>print 0\nprint 2\nprint 0\nprint 2\nrepeat 2 2\nprint 1\nrepeat 2 2\nprint 1\nprint 1\nprint 4\nrepeat 2 2\nprint 1\nprint 1\nprint 4\nrepeat 4 4\nprint 4\nrepeat 4 4\nprint 4\nrepeat 4 4\nprint 4\nrepeat 4 4\nprint 4\nrepeat 4 4\nprint 0\nprint 0\nprint 2\nrepeat 4 4\nprint 0\nprint 0\nprint 2\nrepeat 2 2\nprint 0\nrepeat 2 2\nprint 0\n</code></pre></div></div>\n<p>我们把这些指令粘贴到<a href=\"https://wgreenberg.github.io/quine.zip/\">quine.zip</a>这个谜题中，就会发现输出和输入完全相同，以此就能验证Cox方案的正确性。除此之外作者还给出了生成的源代码：<a href=\"http://swtch.com/rgzip.go\">rgzip.go</a>，只是代码里面到处都是用来构建压缩包的十六进制数字，完全看不懂😂。 <br />\n  另外这个方案是针对使用基于LZ77与哈夫曼编码的DEFLATE压缩算法，所以格式不重要。因此无论是ZIP，还是GZIP，以及TGZ（GZIP压缩后的TAR），其实都是一样的，因为他们都使用的是DEFLATE压缩算法。顺便一提，<a href=\"https://github.com/honno\">Matthew Barber</a>写了一篇很棒的<a href=\"https://github.com/honno/gzip-quine\">文章</a>，通过动画演示并详细讲解了如何实现一个简单的GZIP版ZIP Quine，很值得一看。 <br />\n  还有一点，普通的TAR文件能否实现类似功能呢？从原理来说估计不行，因为TAR文件本身并没有压缩，也不包含指令，就单纯是一堆文件和元数据的拼接，所以就做不到自包含了。 <br />\n  这么来看既然TGZ可以，那是不是在我博客网站的压缩包里放一份和自己一模一样的压缩包是可行的？很遗憾按照这个方法来看是做不到的，由于压缩格式和编码的限制，这个方案在实际实现时发现操作码需要是5个字节，最后发现最多只有类似<code class=\"language-plaintext highlighter-rouge\">repeat 64 64</code>这样的指令能够满足要求，因此头尾区最多只能放64-5=59个字节的数据，也就刚刚好能容纳压缩格式需要的内容，几乎没法塞更多东西进去……显然，这些限制导致这种方式对我来说意义就不大了，何况作者的代码我也看不懂……而且还要考虑压缩包还存在校验用的CRC32，需要找满足整个压缩包的CRC32正好在压缩包中的“不动点”。虽然从CRC32的原理来说应该有办法做到通过数学方式解决，但这篇文章的作者因为解决了自包含的问题之后累了，因此放弃继续研究，选择直接暴力破解，毕竟CRC32只有32位，估计思考的时间都要比爆破的时间长吧😂。但如果是这样，即使有方案能存下我博客的数据，也不能在每次网站构建的时候都制作一次了…… <br />\n  虽然Russ Cox写的文章看起来做不到包含更多内容了，但Erling Ellingsen制作的droste.zip却包含了一张图片，说明并不是没办法加入更多数据，只是没有找到正确的方法。在2024年<a href=\"https://github.com/ruvmello\">Ruben Van Mello</a>写了一篇论文《<a href=\"https://www.mdpi.com/2076-3417/14/21/9797\">A Generator for Recursive Zip Files</a>》，在这篇论文里他不仅解决了包含的额外数据过少的问题，还编写了一个通用工具，能让普通人也能生成这样的压缩包，而且他还创新性的做了一种像衔尾蛇一样的双层嵌套循环压缩包，非常的有意思，所以接下来我打算试试他的方案。 <br />\n  在这篇论文中，里面简述了之前Russ Cox写的内容，也提到了59字节的限制，于是作者对原有的结构进行了一些改动，让操作码可以超出5字节的限制，具体可以看论文的表6，从而解决了只能包含59字节额外数据的限制。但由于DEFLATE压缩格式本身的约束（16位存储块长度以及32KiB回溯窗口），即使能够添加文件，最多也只能额外容纳32763字节的数据（其中包括压缩包所需的文件头）……显然这点空间完全存不下我的博客😭，看来我只能打消这个想法了。但既然都研究了半天，也不一定要存我的博客嘛，可以看看还有没有别的东西可以存？在这之前先继续阅读论文，看完再说吧。</p>\n<h2 id=\"制作一个嵌套循环的zip-quine\">制作一个嵌套循环的ZIP Quine</h2>\n<p>在实现了常规的ZIP Quine之后，接下来就是作者的创新点了（如果光是解决存储限制这点创新点估计还不够发论文吧😂）。作者接下来制作了一种循环压缩文件，在压缩包内包含文件A和压缩包A，而压缩包A中则包含文件B和最初的压缩包，从而形成一个循环递归的结构。看论文的描述所说如果把外层的压缩包和内层的压缩包的开头和结尾按照一定的规则交替混合，就可以看作是一个整体，然后按照之前做ZIP Quine那样处理就可以……具体实现的细节得看论文的表10。只不过既然是把两个压缩包看作一个整体的话，按照上面的限制，自然每个压缩包能容纳的数据量就更小了，每个最多只能容纳16376字节的数据…… <br />\n  另外既然这里面有两个压缩包，那么每个压缩包还有自己的CRC32校验和，理论上如果要爆破的话计算难度得是原来的平方，这样难度就太大了。不过作者发现如果把数据的CRC32值取反（即与“0xFFFFFFFF”取异或）然后和原始数据拼到一起，整个数据的CRC32校验和就会被重置为一个固定的值“0xFFFFFFFF”，看起来挺有意思，正常的哈希算法可没有这种特性。因此原本计算难度很大的爆破计算现在就可以和之前一样了…… <del>话说为什么不让两层的CRC32都这样计算（包括之前单层的ZIP Quine）？这样就不需要爆破了……貌似是因为在普通的ZIP Quine中满足条件的CRC32需要出现两次，所以不能用这个方案吧？</del>  <br />\n  现在所有的理论都足够了，我需要挑一个文件来做这样嵌套循环的ZIP Quine，既然博客的大小不可以……要不然我就用我写过的第一个大项目——<a href=\"https://github.com/Mabbs/Mabbs.Project\">Mabbs</a>吧，这个项目的主程序是22KiB，看起来似乎超出了嵌套循环ZIP Quine的限制？其实没有，它的限制指的是压缩后的大小，我这个程序压缩之后是8KiB左右，所以完全没问题。 <br />\n  接下来就该使用论文中提到的生成工具：<a href=\"https://github.com/ruvmello/zip-quine-generator\">zip-quine-generator</a>，这是一个Kotlin编写的程序，从发布中可以下载预构建的程序，接下来只要按照README中的描述使用“<code class=\"language-plaintext highlighter-rouge\">--loop</code>”参数就可以用这个程序创建嵌套循环的ZIP Quine了。不过它原本的代码不能修改里面生成的压缩包的名字，另外<a href=\"https://github.com/ruvmello/zip-quine-generator/blob/3b8cf977e7a93bb956ad966d5e3b4d503f410529/src/main/kotlin/zip/ZIPArchiver.kt#L845\">压缩后的文件属性是隐藏文件</a>，还有<a href=\"https://github.com/ruvmello/zip-quine-generator/blob/3b8cf977e7a93bb956ad966d5e3b4d503f410529/src/main/kotlin/zip/ZIPArchiver.kt#L29\">生成的压缩包中文件的创建时间总是当前时间</a>，以及<a href=\"https://github.com/ruvmello/zip-quine-generator/blob/3b8cf977e7a93bb956ad966d5e3b4d503f410529/src/main/kotlin/zip/ZIPArchiver.kt#L30\">给文件内填充额外数据的代码里面填的是作者的声明</a>，表示文件是由他论文的所写的生成器生成的……这些情况让我感觉有点不爽，还是希望这些部分能自定义一下，所以我就小改了一下他的代码。顺便一说，Kotlin编译起来还挺简单，直接一句<code class=\"language-plaintext highlighter-rouge\">kotlinc src/main/kotlin -include-runtime -d output.jar</code>就可以了，也不需要折腾Maven之类乱七八糟的东西。最终我修改并编译完程序之后就把文件丢到服务器上开始给我爆破CRC32了，花了10个小时就算出来了，倒是比想象中快😂。 <br />\n  （2025.09.26更新）在2025年9月15日的时候，<a href=\"https://github.com/NateChoe1\">Nate Choe</a>给zip-quine-generator做了个<a href=\"https://github.com/ruvmello/zip-quine-generator/pull/3\">重大贡献</a>，他通过<a href=\"https://en.wikipedia.org/wiki/Extended_Euclidean_algorithm\">数学的方式</a>让CRC32的值可以不需要通过爆破的方式算出来，现在想要再制作这样的压缩包就可以瞬间生成了……要是我再晚点做这个压缩包就不需要花那么长时间了吧🤣。 <br />\n  最终我给我的<a href=\"https://github.com/Mabbs/Mabbs.Project\">Mabbs</a>项目创建了<a href=\"https://github.com/Mabbs/Mabbs.Project/releases/tag/Final-version\">Infinite Mabbs</a>这个发布，生成的文件也可以在<a href=\"/assets/Mabbs.zip\">这里</a>下载，这也算是不枉我研究半天这个论文了😆。</p>\n\n<h1 id=\"自产生程序的探索\">自产生程序的探索</h1>\n<p>说起来自包含压缩包为什么叫做ZIP Quine？其中的Quine是什么意思呢？其实这是一位美国哲学家的名字，他提出了“自指”的理论概念，所以为了纪念他，有类似概念的东西就被称作Quine，具体为什么也可以去看<a href=\"https://en.wikipedia.org/wiki/Quine_(computing)#Name\">维基百科</a>的说明。现在提到Quine一般代表的就是自产生程序，而自包含压缩包因为实现的原理和自产生程序的原理差不多，所以叫做ZIP Quine。因此接下来我打算探索一下自产生程序，更深入地了解Quine。</p>\n<h2 id=\"实现quine的探索\">实现Quine的探索</h2>\n<p>那么什么是自产生程序？简单来说就是程序的源代码和程序的输出完全相同的程序，而且通常来说不允许通过读取/输入源代码的方式实现。按照一般的想法，让程序输出自身就需要输出中有全部代码，整个代码就会变长，而更长的代码就要输出更多，然后代码就会越来越长……所以这么想来似乎成了个死胡同。但其实这种程序实现起来并不复杂，想想ZIP Quine的实现，关键在于指令还需要以数据的形式表现，并且能被引用，这样输出的时候就会连着指令一起输出了。比如用Python的Quine举例：</p>\n<div class=\"language-python highlighter-rouge\"><div class=\"highlight\"><pre class=\"highlight\"><code><span class=\"n\">c</span> <span class=\"o\">=</span> <span class=\"s\">'c = %r; print(c %% c)'</span><span class=\"p\">;</span> <span class=\"k\">print</span><span class=\"p\">(</span><span class=\"n\">c</span> <span class=\"o\">%</span> <span class=\"n\">c</span><span class=\"p\">)</span>\n</code></pre></div></div>\n<p>这里的变量中就以数据的形式存储了程序的代码，而在输出的时候除了变量内的代码，又通过引用的方式又把变量的内容放回到赋值的地方，所以它的输出就和原本的代码一样了。 <br />\n  其实Quine的实现思路都差不多是这样，可以在<a href=\"https://rosettacode.org/\">Rosetta Code</a>中找到<a href=\"https://rosettacode.org/wiki/Quine\">各种语言实现的Quine</a>，在这其中能够发现大多数高级语言的写法都是类似的，除了一些低级语言以及esolang……这些我也看不懂😂，主要是有些语言没有变量的概念，不知道是怎么区分代码和数据……除了那个网站，在<a href=\"https://esolangs.org/wiki/List_of_quines\">这里</a>还能找到更多由esolang编写的Quine，可以看出来基本上很难看懂，其中最令人望而生畏的还得是<a href=\"https://lutter.cc/malbolge/quine.html\">用Malbolge写的Quine</a>，这个代码看起来不仅很长，而且像乱码一样。至于什么是Malbolge？这就是Malbolge程序：</p>\n<div class=\"language-plaintext highlighter-rouge\"><div class=\"highlight\"><pre class=\"highlight\"><code>D'&lt;;_98=6Z43Wxx/.R?Pa\n</code></pre></div></div>\n<p>代码就像加了密似的，顺便一说这个执行的输出结果是“Mayx”，关于Malbolge的具体细节可以看它的<a href=\"http://www.lscheffer.com/malbolge_spec.html\">规范</a>，另外虽然这个语言写起来很复杂，但还是有人能用它编出程序的，甚至还有人用<a href=\"https://esolangs.org/wiki/Malbolge_Unshackled\">Malbolge Unshackled</a>（Malbolge不限内存的变种）写过<a href=\"https://github.com/iczelia/malbolge-lisp\">Lisp解释器</a>，实在是恐怖如斯😨。</p>\n<h2 id=\"只能quine的语言\">只能Quine的语言</h2>\n<p>其实想要做出Quine，还有一种更加无聊的方案，那就是设计一种只能Quine的语言🤣。根据Quine的定义，代码输出的结果就是它本身……所以我们可以把任何内容都看作代码，然后这种语言的行为就是输出所有代码……听起来是不是有点无聊？但是想想看如果把Linux中的cat命令当作解释器，就可以实现这种语言了，比如：</p>\n<div class=\"language-plaintext highlighter-rouge\"><div class=\"highlight\"><pre class=\"highlight\"><code>#!/bin/cat\nHello, world!\n</code></pre></div></div>\n<p>作为脚本执行的结果就是原样输出这段内容，不过把内容当作代码算不算作弊呢……如果看作是cat的输入显然是作弊，但如果是当作源代码的话应该就不算了吧😋……但这就不是能写出逻辑的语言了。所以说Quine的趣味并不在“能不能实现”，而在于如何在限制条件下实现。正是因为大多数语言不会直接“自我输出”，才会觉得那些精巧的Quine程序如此有意思。</p>\n<h2 id=\"quine-relay的探索\">Quine Relay的探索</h2>\n<p>还有一个更加复杂的Quine变种是“Quine接力”（Quine Relay），即一个程序输出另一个程序的源代码，另一个程序又输出下一个程序的源代码，最后回到原始程序，就和之前所说的嵌套循环ZIP Quine有点类似。最著名的例子是<a href=\"https://github.com/mame\">Yusuke Endoh</a>（这位还是<a href=\"https://www.ioccc.org/\">IOCCC</a>的冠军之一）创建的<a href=\"https://github.com/mame/quine-relay\">quine-relay</a>项目，它包含了128种编程语言的循环。 <br />\n  这种程序写起来会更复杂一些，不过原理都差不多，通常除了当前运行的部分是可执行代码外，其他的代码都需要以额外包含的数据形式（如字符串）存储在变量中。如果想自己做个类似简单的Quine Relay，除了去看<a href=\"https://en.wikipedia.org/wiki/Quine_(computing)#Ouroboros_programs\">维基百科</a>之外，前段时间我还看到过一个不错的<a href=\"https://blog.mistivia.com/posts/2024-09-21-quine/\">文章</a>，里面就讲了如何用“笨办法”编写Quine和Quine Relay，通过把变量中的内容编码为16进制来避免不同语言可能存在的特殊字符转译问题，思路不错，对于理解如何编写这类程序的问题很有帮助。当然这只是个<strong>简单</strong>的方案，仅适用于一些常规的编程语言，像上面那个<a href=\"https://github.com/mame/quine-relay\">quine-relay</a>项目中甚至还包含Brainfuck之类的esolang，这种估计得要想办法让相对高级一些的语言通过“生成”的方式得到输出下一种代码的代码，而不是简单的赋值了，所以只靠这点知识想去完全理解大佬的作品还是想多了😆。 <br />\n  顺便一说，quine-relay并不是那位大佬唯一的Quine作品，他还做过<a href=\"https://github.com/mame/radiation-hardened-quine\">有冗余的Quine</a>以及<a href=\"https://mamememo.blogspot.com/2010/09/qlobe.html\">动态的Quine</a>，真的是相当的厉害……</p>\n<h2 id=\"polyglot-quine的探索\">Polyglot Quine的探索</h2>\n<p>除了Quine Relay之外还有一种很复杂的Quine，叫做<a href=\"https://en.wikipedia.org/wiki/Polyglot_(computing)\">Polyglot</a> Quine，与Quine Relay需要在程序执行后才能切换到其他语言接力不同，Polyglot Quine的源代码本身即可同时属于多种语言，而且用这些语言的解释器每个执行后的输出全都一样，都与源代码完全一致。由于不同的编程语言的格式既有些相同之处，也有很多不同之处，所以让同一份代码表示不同语言就会很容易产生歧义，这时候就只能想办法通过一些特别的方式（比如将可能会对当前语言产生干扰的代码看作是注释的方式）来规避语言之间的差异。 <br />\n  Quine本身就已经很困难了，再加上这些限制就变得更加复杂了，所以制作Polyglot Quine的编程语言基本上都得精挑细选，而且通常只有两种语言，比如<a href=\"https://github.com/TrAyZeN/polyglot-quine/blob/master/main.c\">这段代码</a>就是C和Python的Polyglot Quine，它巧妙利用了C预处理器指令在Python中可视为注释的特性，使两种语言互不干扰，非常有趣。当然并不是说只能是两种语言，像<a href=\"https://github.com/2KAbhishek/polyquine\">这个</a>项目甚至使用了五种语言（C、Perl、PHP、Python、Ruby），可以说是相当厉害了。除此之外更令人惊叹的则是<a href=\"https://github.com/d0sboots/PyZipQuine\">PyZipQuine</a>项目，在这其中LZ77编码也可以作为一种语言，所以既可以被当作压缩包，也可以作为Python2.7代码，而且二者都是Quine，实在是令人赞叹。</p>\n\n<h1 id=\"感想\">感想</h1>\n<p>虽然这次探索最终没能完成让包含博客所有内容的压缩包自包含，但是在探索的过程中我还是收获了不少，尤其是Ruben Van Mello制作的ZIP Quine生成工具，实在是太棒了。很久以前我见到droste.zip这个压缩包的时候，就想整一个属于自己的ZIP Quine，现在我不仅用那个生成工具做了一个，还是对我来说很有意义的第一个项目——Mabbs，而且更关键的还是生成的是比普通的ZIP Quine更高级的嵌套循环ZIP Quine，也算是圆了小时候的心愿了。 <br />\n  另外在探索自产生程序的时候，也发现了一些很有意思的网站，比如<a href=\"https://rosettacode.org/\">Rosetta Code</a>以及<a href=\"https://esolangs.org/\">Esolang wiki</a> <del>（虽然这个网站里被好多小学生写了一堆无聊的东西😂）</del> ，里面有不少有趣的东西，也算是让我大开眼界了。 <br />\n  所以有的时候探索不一定要完成目标，在这个过程中也会收获到很多不错的东西吧😊。</p>\n","url":"/2025/09/01/quine.html","tags":["压缩包","Quine","自产生程序","Quine Relay"],"date_published":"2025-09-01T00:00:00+08:00","date_modified":"2025-09-01T00:00:00+08:00","author":{"name":"mayx"}},{"id":"/2025/08/10/tilde.html","title":"在Tilde社区的游玩体验","summary":"这篇文章介绍了作者在Tilde社区的体验，这是一类基于类Unix环境的公共服务器社区，类似于家目录，提供预装的软件、开发环境和公共服务，如聊天室、邮件、BBS论坛等，强调了社区的互动性和共享精神。作者通过申请、审核过程加入了几个社区，并详细描述了在这些社区中的个人主页、编程支持（如Gemini和Gopher协议）、博客发布、代码托管（Git支持）、CI/CD部署以及使用Git hooks自动化博客更新等功能。尽管作者受限于语言和工具使用体验，未能充分参与社区交流，但对社区学习新知识和丰富博客内容印象深刻。","content_html":"<p>Tilde社区，如“家”一般的感受😝<!--more--></p>\n\n<h1 id=\"起因\">起因</h1>\n<p>在<a href=\"/2025/08/01/sw-proxy.html\">上一篇文章</a>里，我说到给我的博客增加了不少网站<a href=\"/proxylist.html\">镜像</a>，也在这个过程中发现了不少Git平台实例。顺便一提，我找到了个不错的<a href=\"https://github.com/ecosyste-ms/repos\">仓库</a>，可以全网搜索各种Git平台实例。在这探索的过程中，我发现了一种神奇的社区——Tilde社区，体验之后感觉非常有意思，所以来分享一下。</p>\n\n<h1 id=\"什么是tilde社区\">什么是Tilde社区</h1>\n<p>Tilde社区之所以叫Tilde，是因为在类Unix系统（如Linux、BSD）中，波浪号（Tilde）“~”代表家目录。因此，Tilde社区就是基于类Unix系统环境，并且可以公共登录的服务器，又被称为<abbr title=\"public access unix systems\">pubnixes</abbr>。一般这些社区的管理员会预装很多软件、开发环境以及一些公共服务，比如聊天室、邮件、BBS论坛等，这些构成了社区互动的基础。不过并不是所有类似这样提供Shell访问的公共服务器都可以被称作社区，比如知名的免费网站托管商<a href=\"https://www.serv00.com\">Serv00</a>虽然也提供可以登录的FreeBSD服务器，并且在服务器上安装了非常多的工具和环境，从表面来看和Tilde社区提供的服务几乎一模一样，但是它少了一个很重要的东西，那就是社区，它的权限管理非常严格，不允许服务器的用户互相串门，也没有互相交流的平台，而且它的本质是商业服务（尽管是免费的），所以它不算Tilde社区。 <br />\n  至于Tilde社区的加入方式，一般可以通过填写在线申请表、私信或发送邮件申请，有些比较有特色的社区会用SSH交互等方式。审核通过后，管理员就会在服务器上为你创建账户，即可获得属于自己的“家”，一般的Tilde社区在这个过程中不需要付一分钱，因为他们通常都是反商业化的，如果遇到了需要付钱才能激活账户的公共服务器，那就不是Tilde社区，即使它历史悠久，可能是别的什么东西😆。 <br />\n  那么在哪里可以找到它们呢？有一个不错的网站，叫做<a href=\"https://tildeverse.org\">tildeverse</a>，这不仅是一个Tilde社区的集合，它自身也提供了很多服务。不过总的来说各个社区之间也是互相独立的，tildeverse只是提供了一个平台让大家可以互相沟通，所以这个网站叫做“loose association”，就相当于博客中的博客圈一样。 <br />\n  于是我在tildeverse的成员列表中随便挑选了几个Tilde社区提交了注册申请，过了一段时间申请通过了，那么接下来就来说说我在Tilde社区的体验吧。</p>\n\n<h1 id=\"tilde社区的体验\">Tilde社区的体验</h1>\n<p>虽然我加入了不少Tilde社区，不过各个社区提供的服务都差不多，首先最重要的就是个人主页，一般Tilde社区基本上都会提供一个像<code class=\"language-plaintext highlighter-rouge\">~/public_html</code>这样的目录存放个人主页的网页文件，并且可以通过类似<code class=\"language-plaintext highlighter-rouge\">example.com/~username</code>这样的地址访问，还有些社区会允许通过二级域名的方式访问，类似<code class=\"language-plaintext highlighter-rouge\">username.example.com</code>这样，像我博客好多地方写的都是从根路径开始，就很适合用二级域名的方式。这些主页大多也支持使用PHP之类的网页，不过不像虚拟主机那样有个面板可以轻松安装扩展和切换版本，有些可能要自己写配置文件，有些可能要管理员才可以操作，毕竟是社区，所以不太注重用户体验。 <br />\n  当然除了HTTP协议的个人主页，通常他们还可以创建一些Gemini协议和Gopher协议的个人主页，这些协议不支持普通浏览器访问，需要用<a href=\"https://github.com/rkd77/elinks\">ELinks</a>之类的文本浏览器才能打开，这个浏览器甚至可以在终端里用鼠标操作😆。不过因为协议非常简单，所以内容也就只能整些文本内容了。 <br />\n  除了个人主页外，一般还会提供编写博客的程序，比如<a href=\"https://github.com/cfenollosa/bashblog\">bashblog</a>，用这个编写好之后就可以直接生成HTML网站，能直接发布到自己的主页上让别人访问。这个脚本还是纯Bash的，就和我当年的<a href=\"https://github.com/Mabbs/Mabbs.Project\">Mabbs</a>一样，看起来还挺酷，当然功能上肯定比不上正经的静态博客生成器😆。 <br />\n  当然博客是一方面，还可以写微博，他们一般提供一款叫<a href=\"https://github.com/buckket/twtxt\">twtxt</a>的软件，用这个软件可以使用命令发微博，还能关注其他人，查看时间线，而且这还是去中心化的，可以跨服务器进行关注，感觉就和<a href=\"https://github.com/mastodon/mastodon\">Mastodon</a>一样。 <br />\n  除此之外作为社区当然就会有聊天室和论坛了，不过这些聊天室和BBS论坛通常不会像大多数人使用的那种通过Web或者图形界面来查看，而是纯文本的那种，比如论坛通常会用<a href=\"https://github.com/bbj-dev/bbj\">Bulletin Butter &amp; Jelly</a>，聊天室会用IRC，可以使用<a href=\"https://github.com/weechat/weechat\">WeeChat</a>，只是我对IRC的印象不太好，在终端使用的IRC客户端没有一个使用体验好的😅，相比于其他在终端使用的软件，操作通常只需要一些快捷键，而且界面上通常会有提示，而IRC客户端就只能敲命令，而且还担心敲错了当成普通内容发出去……所以尽管我加入了Tilde社区，受限于聊天软件的使用体验以及我的英文水平，所以并不能和在服务器上的其他人聊天，没法参与到社区中，这么来看似乎我只能把Tilde社区当作普通的共享服务器来看待了😭。 <br />\n  在Tilde社区中既然都是用类Unix系统，自然大都是会写程序的人，所以托管代码也很重要，不过因为大多Tilde社区的主机性能很垃圾，所以很多都不会提供Git平台服务，即使有可能也只会提供Gitea，像GitLab这种对服务器要求比较高的基本上就不会有了。但很多人可能对Git有误解，其实绝大多数情况下都不需要Git平台来托管代码，之所以用Gitea、GitLab的工具是因为它们有比较完整的用户管理以及代码协作能力，比如Issue和Wiki之类的，但是大多数人其实根本没必要用到这些功能，有问题发邮件就好了，像Linux的开发就完全没有用Gitea、GitLab之类的平台。所以在Tilde社区中托管代码非常简单，直接新建个文件夹，执行<code class=\"language-plaintext highlighter-rouge\">git init --bare</code>，那就是个仓库，另外很多Tilde社区提供<a href=\"https://git.zx2c4.com/cgit/about/\">cgit</a>方便让公众在网页上查看和克隆自己的仓库，一般只要放到<code class=\"language-plaintext highlighter-rouge\">~/public_git</code>目录下就可以。至于自己如果想要提交代码，可以用<code class=\"language-plaintext highlighter-rouge\">git remote add tilde ssh://example.com/~/public_git/repo.git</code>添加远程仓库，本地改完之后push上去就可以。 <br />\n  不过用那些Git平台还有一个地方可能会用到，那就是CI/CD，直接用命令创建的仓库它可以做到CI/CD吗？其实是可以的，Git有hooks功能，如果想要类似CI/CD的功能就可以直接用post-receive这个钩子，提交完成之后就会执行这个脚本，所以接下来就讲讲我是如何用Git hooks在服务器上自动部署我的博客吧。</p>\n\n<h1 id=\"使用git-hooks自动部署博客\">使用Git hooks自动部署博客</h1>\n<p>我的博客使用的是<a href=\"https://github.com/jekyll/jekyll\">Jekyll</a>框架，这是一个使用Ruby编写的静态博客生成器。所以要想构建我的博客至少要有Ruby的环境，还好几乎所有的Tilde社区都预装了，不用担心环境的问题。 <br />\n  不过Tilde社区一般不提供root权限，所以Ruby的包需要放到自己的目录下，比如可以执行这样的命令：</p>\n<div class=\"language-bash highlighter-rouge\"><div class=\"highlight\"><pre class=\"highlight\"><code>bundle2.7 config <span class=\"nb\">set</span> <span class=\"nt\">--local</span> path <span class=\"s1\">'/home/mayx/blog-env'</span>\n</code></pre></div></div>\n<p>然后再在我的仓库下执行<code class=\"language-plaintext highlighter-rouge\">bundle2.7 install</code>就可以了。 <br />\n  接下来就需要编写构建的脚本，这个倒是简单，直接用我的<a href=\"/deploy.sh\">部署脚本</a>改改就行：</p>\n<div class=\"language-bash highlighter-rouge\"><div class=\"highlight\"><pre class=\"highlight\"><code><span class=\"c\">#!/bin/bash</span>\n<span class=\"nb\">cd</span> /home/mayx/\n<span class=\"nb\">rm</span> <span class=\"nt\">-rf</span> public_html\ngit <span class=\"nt\">--work-tree</span><span class=\"o\">=</span>/home/mayx/blog <span class=\"nt\">--git-dir</span><span class=\"o\">=</span>/home/mayx/blog.git checkout <span class=\"nt\">-f</span>\n<span class=\"nb\">cd </span>blog\n<span class=\"nb\">mkdir </span>Mabbs\ncurl <span class=\"nt\">-L</span> <span class=\"nt\">-o</span> Mabbs/README.md https://github.com/Mabbs/Mabbs/raw/main/README.md\nbundle2.7 <span class=\"nb\">exec </span>jekyll build <span class=\"nt\">-d</span> ../public_html\n<span class=\"nb\">tar </span>czvf MayxBlog.tgz <span class=\"nt\">--exclude-vcs</span> ../public_html/\n<span class=\"nb\">mv </span>MayxBlog.tgz ../public_html/\n</code></pre></div></div>\n<p>写完之后把这个脚本放到仓库的<code class=\"language-plaintext highlighter-rouge\">hooks/post-receive</code>下，然后加上执行权限就可以用了，以后每次push之后都会直接更新我在Tilde社区的主页，也就是我的镜像站。这样部署不像一般CI/CD还要额外装环境，直接使用提前装好的环境，构建速度会快不少。 <br />\n  不过既然有机会构建了，我就可以把一些不支持构建的Pages用起来了，有些Forgejo实例支持Pages功能，但是仓库里只能包含构建后的代码，还有Bitbucket Cloud也是一样的问题，所以我可以把构建后的文件夹转为仓库，然后推送到这些Git平台上。 <br />\n  考虑到我的网站每次构建基本上所有的页面都有改动，因此我不打算保留提交记录，所以我每次都会重新初始化git仓库，不过在我实际测试的时候，发现钩子触发的脚本执行<code class=\"language-plaintext highlighter-rouge\">git init</code>的时候创建的是裸仓库……查了一下貌似是环境变量的问题，只要把<code class=\"language-plaintext highlighter-rouge\">GIT_DIR</code>变量删掉就没问题了，以下是实际的代码：</p>\n<div class=\"language-bash highlighter-rouge\"><div class=\"highlight\"><pre class=\"highlight\"><code><span class=\"nb\">cd</span> ../public_html/\n<span class=\"nb\">unset </span>GIT_DIR\ngit init\ngit add <span class=\"nb\">.</span>\ngit commit <span class=\"nt\">-m</span> <span class=\"s2\">\"update\"</span>\ngit remote add codeberg ssh://git@codeberg.org/mayx/pages.git\ngit remote add gitgay ssh://git@git.gay/mayx/pages.git\ngit remote add bitbucket ssh://git@bitbucket.org/unmayx/unmayx.bitbucket.io.git\ngit push <span class=\"nt\">-f</span> codeberg master\ngit push <span class=\"nt\">-f</span> gitgay master\ngit push <span class=\"nt\">-f</span> bitbucket master\n</code></pre></div></div>\n<p>除了这些Pages之外，还有一些平台只支持使用他们自己的软件上传网站代码，比如surge，既然我可以在构建的时候执行命令，那就顺带一起上传吧，比如我可以这样执行：</p>\n<div class=\"language-bash highlighter-rouge\"><div class=\"highlight\"><pre class=\"highlight\"><code>/home/mayx/blog-env/node_modules/surge/bin/surge /home/mayx/public_html/ mayx.surge.sh\n</code></pre></div></div>\n<p>其实除了这个之外我还想上传到sourcehut pages，这个也需要用他们自己的软件上传，但是sourcehut pages的CSP太严格了，居然禁止脚本访问其他网站😭，这样我的文章点击计数、文章推荐、AI摘要之类乱七八糟的功能就全用不了了，所以只好作罢……</p>\n\n<h1 id=\"感想\">感想</h1>\n<p>总的来说，这次在Tilde社区的各种体验还挺有意思，虽然没能和各个社区的成员进行对话，但是在探索的过程中，也了解到了不少新知识，而且也给我的博客增加了不少镜像。不知道会不会有哪个社区成员在闲逛的时候看到我的博客然后对里面的内容感兴趣😝……要是有哪个成员看到然后给我评论，那也算是社区互动吧😋。虽然我的文章内容都是中文，但现在翻译软件也足够强大了，应该不至于拦住外国人。只是在国内似乎没有见过类似的社区，在国内也有的话，那就可以用中文和大家对话了吧。</p>\n","url":"/2025/08/10/tilde.html","tags":["tilde","服务器","git","体验"],"date_published":"2025-08-10T00:00:00+08:00","date_modified":"2025-08-10T00:00:00+08:00","author":{"name":"mayx"}},{"id":"/2025/08/01/sw-proxy.html","title":"用Service Worker实现一个反向代理","summary":"这篇文章介绍了作者如何利用Service Worker在现代浏览器中实现一个简单的反向代理功能，以提供博客的备份和离线访问。作者原本希望通过Service Worker在用户浏览器中运行一个Web服务器来存储博客副本，但发现 tar.gz 文件的处理需要第三方库且难以找到适用的解决方案，尤其是对于tar文件的处理。作者最终选择使用Service Worker作为反向代理，将请求转发到其他网站，如GeoCities风格的静态网站托管平台，实现了类似的效果。这个过程中，作者体验到了浏览器功能的强大，并认为Service Worker在离线场景中有更大的潜力，尽管在他的例子中并没有充分展示这种优势。","content_html":"<p>现代浏览器真是强大，可以替代一些服务器的功能了！<!--more--></p>\n\n<h1 id=\"起因\">起因</h1>\n<p>前段时间在和群友聊天的时候，提到了我博客的<a href=\"/2022/02/14/move.html\">分发方案</a>，这么多年过去之后我已经在很多平台上<a href=\"/proxylist.html\">分发</a>了我的博客，不过这只是多重冗余，并不算去中心化（虽然我也有向IPFS同步，不过IPFS还得pin，也不太可靠）……所以这么看来，我的博客似乎还不算极其可靠😂？但其实不完全是这样。因为除了向不同平台的分发，我的博客还有一个全文搜索的功能。更重要的是，之前做<a href=\"/2024/10/01/suggest.html\">文章推荐功能</a>时，会把整个博客所有文章的文字存到访客浏览器的localStorage中。这么说来，只要有人访问了我博客的文章，他们的浏览器中就会保存一份我博客文章的完整文本副本。从这个角度看，可靠性应该算是相当高了吧？ <br />\n  不过我之前的分发方案里还记录了一点，在GitHub Pages以外的平台我还打包了一份全站生成后的代码，之所以要全站打包，也是希望我的博客能尽可能的分发，考虑到几乎所有的Linux发行版一定有tar，而不一定有zip，所以我最终打包成了tgz格式。如果能让访客下载这个全站打包好的副本，相比于浏览器里只存储了文章文字的全文数据，这应该是一个更好的备份方式吧？毕竟我的博客本身也是我的作品……所以这个压缩包到底有什么地方可以用到呢？ <br />\n  这时候我想起来，现代的浏览器功能已经非常强大了，甚至在浏览器里直接运行一个Web服务器也完全没问题。如果能让访客在浏览器里下载那个压缩包并运行一个Web服务器，那就相当于在他们本地设备上部署了一份我的博客副本。这样一来，除了我自己搭建的网站之外，这些访客的本地也运行着一个我的博客实例😆（当然，这份副本只有访客自己能看到）。</p>\n\n<h1 id=\"研究实现方案\">研究实现方案</h1>\n<p>想要在浏览器上运行Web服务器其实很简单，那就是使用Service Worker，它可以完全离线在浏览器上工作。格式的话和以前写过的Cloudflare Worker非常相似，毕竟Cloudflare Worker就是模仿Service Worker的方式运行啊😂，所以我要是想写Service Worker应该很简单。 <br />\n  有了执行的东西之后就是存储，在Service Worker上存储可以用Cache Storage，用它的话不仅可以保存文件的内容，还可以保存响应头之类的东西，用来和Service Worker配合使用非常的方便，不过既然是Cache，它的可靠性就不能保证了，浏览器很可能在需要的时候清除缓存内容，所以相比之下用IndexedDB应该会更可靠一些。 <br />\n  那么接下来就该处理我的tgz文件了，tgz的本质是tar文件被gzip压缩之后的东西。浏览器解压gzip倒是简单，可以用Compression Stream API，但它也只能处理gzip了……对于tar的处理似乎就必须用第三方库。而tar的库在网上搜了搜似乎很少，网上找了个<a href=\"https://github.com/gera2ld/tarjs\">tarjs</a>库，文档写的也看不懂，⭐️也很少，看来是有这个需求的人很少啊，而且还要用现代JS那种开发方式，要用什么npm之类的。在<a href=\"/2025/07/24/screenshot.html\">上一篇文章</a>我就说过我不是专门写前端的，对在自己电脑上安装Node.js之类的东西很反感。后来问AI也完全写不出能用的代码，估计这个功能还是太小众了……另外又想到除了这个问题之外还要处理网站更新的时候该怎么通知Service Worker之类乱七八糟的事情……所以只好作罢😅。</p>\n\n<h1 id=\"使用service-worker进行反向代理\">使用Service Worker进行反向代理</h1>\n<p>这么看来离线运行我的博客似乎有点麻烦，不过既然都研究了一下Service Worker，不如想想其他能做的事情……比如当作反向代理？虽然在浏览器上搞反向代理好像意义不是很大……但值得一试。我之前见过一个项目叫做<a href=\"https://github.com/EtherDream/jsproxy\">jsproxy</a>，它是用Service Worker实现的正向代理，这给了我一些启发。我在之前研究分发方案的时候发现了一些模仿GeoCities的复古静态网站托管平台，比如<a href=\"https://neocities.org\">Neocities</a>和<a href=\"https://nekoweb.org\">Nekoweb</a>。它们需要通过网页或API才能上传网站，不太方便使用CI/CD的方式部署。但是我又觉得它们的社区很有意思，所以想用Service Worker的方式反代到我的网站，显得我的网站是部署在它们上面一样。 <br />\n  这个做起来非常简单，其实就和我以前用<a href=\"/2021/03/02/workers.html#%E9%A6%96%E5%85%88%E7%BB%99%E8%87%AA%E5%B7%B1%E6%90%AD%E4%B8%AA%E5%8F%8D%E4%BB%A3\">Cloudflare Worker搭建反代</a>几乎完全一样，遇到请求之后直接通过Fetch获取内容然后再返回就行，唯一不同的就是浏览器存在跨域策略，在跨域时只有对应网站存在合适的响应头才可以成功请求，还好我用的Pages服务大多都允许跨域。但是在我实际测试的时候发现这个允许跨域的等级不太一样，比如GitHub Pages的响应头里包含<code class=\"language-plaintext highlighter-rouge\">Access-Control-Allow-Origin: *</code>，但是不允许OPTIONS方式请求，另外如果要修改请求头，在响应头里还要一一允许相应的请求头才行……当然对于这种问题解决起来很简单，就和我之前写的<a href=\"/2025/04/08/feed.html\">订阅源预览</a>一样，用<a href=\"https://github.com/Zibri/cloudflare-cors-anywhere\">cloudflare-cors-anywhere</a>搭建的CORS代理就可以，有了这个就可以轻松使用Service Worker反代其他网站了。 <br />\n  当然对我来说其实有<code class=\"language-plaintext highlighter-rouge\">Access-Control-Allow-Origin: *</code>就够了，我也不需要花里胡哨的请求方式，也不需要在请求头和请求体里加什么莫名其妙的东西，所以对我来说直接请求我的某一个镜像站就可以，于是代码如下： <br />\n  <strong>index.html</strong></p>\n<div class=\"language-html highlighter-rouge\"><div class=\"highlight\"><pre class=\"highlight\"><code><span class=\"cp\">&lt;!DOCTYPE html&gt;</span>\n<span class=\"nt\">&lt;html&gt;</span>\n\n<span class=\"nt\">&lt;head&gt;</span>\n    <span class=\"nt\">&lt;meta</span> <span class=\"na\">charset=</span><span class=\"s\">\"UTF-8\"</span> <span class=\"nt\">/&gt;</span>\n    <span class=\"nt\">&lt;title&gt;</span>Mayx的博客<span class=\"nt\">&lt;/title&gt;</span>\n<span class=\"nt\">&lt;/head&gt;</span>\n\n<span class=\"nt\">&lt;body&gt;</span>\n    <span class=\"nt\">&lt;script&gt;</span>\n        <span class=\"c1\">// 注册 Service Worker</span>\n        <span class=\"k\">if</span> <span class=\"p\">(</span><span class=\"dl\">'</span><span class=\"s1\">serviceWorker</span><span class=\"dl\">'</span> <span class=\"k\">in</span> <span class=\"nb\">navigator</span><span class=\"p\">)</span> <span class=\"p\">{</span>\n            <span class=\"nb\">navigator</span><span class=\"p\">.</span><span class=\"nx\">serviceWorker</span><span class=\"p\">.</span><span class=\"nx\">register</span><span class=\"p\">(</span><span class=\"dl\">'</span><span class=\"s1\">/sw.js</span><span class=\"dl\">'</span><span class=\"p\">)</span>\n                <span class=\"p\">.</span><span class=\"nx\">then</span><span class=\"p\">(</span><span class=\"nx\">registration</span> <span class=\"o\">=&gt;</span> <span class=\"p\">{</span>\n                    <span class=\"nx\">console</span><span class=\"p\">.</span><span class=\"nx\">log</span><span class=\"p\">(</span><span class=\"dl\">'</span><span class=\"s1\">Service Worker 注册成功:</span><span class=\"dl\">'</span><span class=\"p\">,</span> <span class=\"nx\">registration</span><span class=\"p\">.</span><span class=\"nx\">scope</span><span class=\"p\">);</span>\n                    <span class=\"c1\">// 刷新网页</span>\n                    <span class=\"nx\">location</span><span class=\"p\">.</span><span class=\"nx\">reload</span><span class=\"p\">();</span>\n                <span class=\"p\">})</span>\n                <span class=\"p\">.</span><span class=\"k\">catch</span><span class=\"p\">(</span><span class=\"nx\">error</span> <span class=\"o\">=&gt;</span> <span class=\"p\">{</span>\n                    <span class=\"nx\">console</span><span class=\"p\">.</span><span class=\"nx\">error</span><span class=\"p\">(</span><span class=\"dl\">'</span><span class=\"s1\">Service Worker 注册失败:</span><span class=\"dl\">'</span><span class=\"p\">,</span> <span class=\"nx\">error</span><span class=\"p\">);</span>\n                    <span class=\"nx\">location</span><span class=\"o\">=</span><span class=\"dl\">\"</span><span class=\"s2\">https://mabbs.github.io</span><span class=\"dl\">\"</span><span class=\"p\">;</span>\n                <span class=\"p\">});</span>\n        <span class=\"p\">}</span> <span class=\"k\">else</span> <span class=\"p\">{</span>\n            <span class=\"nx\">location</span><span class=\"o\">=</span><span class=\"dl\">\"</span><span class=\"s2\">https://mabbs.github.io</span><span class=\"dl\">\"</span><span class=\"p\">;</span>\n        <span class=\"p\">}</span>\n    <span class=\"nt\">&lt;/script&gt;</span>\n    <span class=\"nt\">&lt;h1&gt;</span>Redirecting<span class=\"ni\">&amp;hellip;</span><span class=\"nt\">&lt;/h1&gt;</span>\n    <span class=\"nt\">&lt;a</span> <span class=\"na\">href=</span><span class=\"s\">\"https://mabbs.github.io\"</span><span class=\"nt\">&gt;</span>Click here if you are not redirected.<span class=\"nt\">&lt;/a&gt;</span>\n<span class=\"nt\">&lt;/body&gt;</span>\n\n<span class=\"nt\">&lt;/html&gt;</span>\n</code></pre></div></div>\n<p><strong>sw.js</strong></p>\n<div class=\"language-javascript highlighter-rouge\"><div class=\"highlight\"><pre class=\"highlight\"><code><span class=\"kd\">const</span> <span class=\"nx\">TARGET_SITE</span> <span class=\"o\">=</span> <span class=\"dl\">'</span><span class=\"s1\">被反代的网站</span><span class=\"dl\">'</span><span class=\"p\">;</span> <span class=\"c1\">//也可以用CORS代理</span>\n\n<span class=\"nb\">self</span><span class=\"p\">.</span><span class=\"nx\">addEventListener</span><span class=\"p\">(</span><span class=\"dl\">'</span><span class=\"s1\">install</span><span class=\"dl\">'</span><span class=\"p\">,</span> <span class=\"nx\">event</span> <span class=\"o\">=&gt;</span> <span class=\"p\">{</span>\n    <span class=\"c1\">// 强制立即激活新 Service Worker</span>\n    <span class=\"nx\">event</span><span class=\"p\">.</span><span class=\"nx\">waitUntil</span><span class=\"p\">(</span><span class=\"nb\">self</span><span class=\"p\">.</span><span class=\"nx\">skipWaiting</span><span class=\"p\">());</span>\n<span class=\"p\">});</span>\n\n<span class=\"nb\">self</span><span class=\"p\">.</span><span class=\"nx\">addEventListener</span><span class=\"p\">(</span><span class=\"dl\">'</span><span class=\"s1\">activate</span><span class=\"dl\">'</span><span class=\"p\">,</span> <span class=\"nx\">event</span> <span class=\"o\">=&gt;</span> <span class=\"p\">{</span>\n    <span class=\"c1\">// 立即控制所有客户端</span>\n    <span class=\"nx\">event</span><span class=\"p\">.</span><span class=\"nx\">waitUntil</span><span class=\"p\">(</span><span class=\"nb\">self</span><span class=\"p\">.</span><span class=\"nx\">clients</span><span class=\"p\">.</span><span class=\"nx\">claim</span><span class=\"p\">());</span>\n<span class=\"p\">});</span>\n\n<span class=\"nb\">self</span><span class=\"p\">.</span><span class=\"nx\">addEventListener</span><span class=\"p\">(</span><span class=\"dl\">'</span><span class=\"s1\">fetch</span><span class=\"dl\">'</span><span class=\"p\">,</span> <span class=\"nx\">event</span> <span class=\"o\">=&gt;</span> <span class=\"p\">{</span>\n    <span class=\"k\">if</span> <span class=\"p\">(</span><span class=\"k\">new</span> <span class=\"nx\">URL</span><span class=\"p\">(</span><span class=\"nx\">event</span><span class=\"p\">.</span><span class=\"nx\">request</span><span class=\"p\">.</span><span class=\"nx\">url</span><span class=\"p\">).</span><span class=\"nx\">origin</span> <span class=\"o\">==</span> <span class=\"nb\">self</span><span class=\"p\">.</span><span class=\"nx\">location</span><span class=\"p\">.</span><span class=\"nx\">origin</span><span class=\"p\">)</span> <span class=\"p\">{</span>\n        <span class=\"nx\">event</span><span class=\"p\">.</span><span class=\"nx\">respondWith</span><span class=\"p\">(</span><span class=\"nx\">handleProxyRequest</span><span class=\"p\">(</span><span class=\"nx\">event</span><span class=\"p\">.</span><span class=\"nx\">request</span><span class=\"p\">));</span>\n    <span class=\"p\">}</span>\n<span class=\"p\">});</span>\n\n<span class=\"k\">async</span> <span class=\"kd\">function</span> <span class=\"nx\">handleProxyRequest</span><span class=\"p\">(</span><span class=\"nx\">request</span><span class=\"p\">)</span> <span class=\"p\">{</span>\n    <span class=\"k\">try</span> <span class=\"p\">{</span>\n        <span class=\"c1\">// 构建目标 URL</span>\n        <span class=\"kd\">const</span> <span class=\"nx\">targetUrl</span> <span class=\"o\">=</span> <span class=\"k\">new</span> <span class=\"nx\">URL</span><span class=\"p\">(</span><span class=\"nx\">request</span><span class=\"p\">.</span><span class=\"nx\">url</span><span class=\"p\">);</span>\n        <span class=\"kd\">const</span> <span class=\"nx\">proxyUrl</span> <span class=\"o\">=</span> <span class=\"nx\">TARGET_SITE</span> <span class=\"o\">+</span> <span class=\"nx\">targetUrl</span><span class=\"p\">.</span><span class=\"nx\">pathname</span> <span class=\"o\">+</span> <span class=\"nx\">targetUrl</span><span class=\"p\">.</span><span class=\"nx\">search</span><span class=\"p\">;</span>\n\n        <span class=\"c1\">// 创建新请求（复制原请求属性）</span>\n        <span class=\"kd\">const</span> <span class=\"nx\">proxyRequest</span> <span class=\"o\">=</span> <span class=\"k\">new</span> <span class=\"nx\">Request</span><span class=\"p\">(</span><span class=\"nx\">proxyUrl</span><span class=\"p\">,</span> <span class=\"p\">{</span>\n            <span class=\"na\">method</span><span class=\"p\">:</span> <span class=\"nx\">request</span><span class=\"p\">.</span><span class=\"nx\">method</span><span class=\"p\">,</span>\n            <span class=\"c1\">// headers: request.headers,</span>\n            <span class=\"c1\">// body: request.body</span>\n        <span class=\"p\">});</span>\n\n        <span class=\"c1\">// 发送代理请求</span>\n        <span class=\"kd\">const</span> <span class=\"nx\">response</span> <span class=\"o\">=</span> <span class=\"k\">await</span> <span class=\"nx\">fetch</span><span class=\"p\">(</span><span class=\"nx\">proxyRequest</span><span class=\"p\">);</span>\n\n        <span class=\"c1\">// 返回修改后的响应</span>\n        <span class=\"k\">return</span> <span class=\"k\">new</span> <span class=\"nx\">Response</span><span class=\"p\">(</span><span class=\"nx\">response</span><span class=\"p\">.</span><span class=\"nx\">body</span><span class=\"p\">,</span> <span class=\"p\">{</span>\n            <span class=\"na\">status</span><span class=\"p\">:</span> <span class=\"nx\">response</span><span class=\"p\">.</span><span class=\"nx\">status</span><span class=\"p\">,</span>\n            <span class=\"na\">statusText</span><span class=\"p\">:</span> <span class=\"nx\">response</span><span class=\"p\">.</span><span class=\"nx\">statusText</span><span class=\"p\">,</span>\n            <span class=\"na\">headers</span><span class=\"p\">:</span> <span class=\"nx\">response</span><span class=\"p\">.</span><span class=\"nx\">headers</span>\n        <span class=\"p\">});</span>\n\n    <span class=\"p\">}</span> <span class=\"k\">catch</span> <span class=\"p\">(</span><span class=\"nx\">error</span><span class=\"p\">)</span> <span class=\"p\">{</span>\n        <span class=\"nx\">console</span><span class=\"p\">.</span><span class=\"nx\">error</span><span class=\"p\">(</span><span class=\"dl\">'</span><span class=\"s1\">Proxy error:</span><span class=\"dl\">'</span><span class=\"p\">,</span> <span class=\"nx\">error</span><span class=\"p\">);</span>\n        <span class=\"k\">return</span> <span class=\"k\">new</span> <span class=\"nx\">Response</span><span class=\"p\">(</span><span class=\"dl\">'</span><span class=\"s1\">Proxy failed</span><span class=\"dl\">'</span><span class=\"p\">,</span> <span class=\"p\">{</span> <span class=\"na\">status</span><span class=\"p\">:</span> <span class=\"mi\">500</span> <span class=\"p\">});</span>\n    <span class=\"p\">}</span>\n<span class=\"p\">}</span>\n</code></pre></div></div>\n<p>最终的实际效果： <a href=\"https://mayx.nekoweb.org\">https://mayx.nekoweb.org</a></p>\n\n<h1 id=\"感想\">感想</h1>\n<p>虽然折腾了半天没能增强我博客的可靠性……但是体会到了现代浏览器的强大之处，难怪前几年会提出ChromeOS和PWA之类的东西，原来浏览器功能还是相当强大的，用了Service Worker以后即使是纯前端也可以有和使用服务器一样的体验，在过去的浏览器中要是想实现这样的功能……好像也不是不可能😂，用AJAX加服务器使用伪静态策略其实是可以做到的……其实Service Worker的功能更多还是在离线时使用的，我这个例子好像没体现它的优势😆。 <br />\n  但总的来说相比以前想要实现这种反代的功能代码还是更清晰，也更简单了，也许以后如果有机会我又有心思让博客在访客浏览器上离线运行，那就可以体现Service Worker真正的优势了🤣。</p>\n","url":"/2025/08/01/sw-proxy.html","tags":["浏览器","Service Worker","Worker","反向代理"],"date_published":"2025-08-01T00:00:00+08:00","date_modified":"2025-08-01T00:00:00+08:00","author":{"name":"mayx"}}]}