MoreRSS

site iconLawtee | 法律小茶馆修改

原海若博客。89年,湖南人,法律工作者,可以提供法律帮助。
请复制 RSS 到你的阅读器,或快速订阅到 :

Inoreader Feedly Follow Feedbin Local Reader

Lawtee | 法律小茶馆的 RSS 预览

对噪声污染行为进行拘留处罚,从《生态环境法典》的翻译谈起

2026-04-08 03:41:07

最近参加了律协组织的一场培训,主讲嘉宾是全国人大法工委的一位处长,她全程参与了我国颁布的全球首部《生态环境法典》立法工作。

席间,她分享了一个有趣的立法细节:关于“生态环境”这个词的含义。比如,2018年机构改革后,新设立的生态环境部当时英文译名是 Ministry of Ecological Environment(生态性的环境),当没过多久,这个翻译却悄然变成了 Ministry of Ecology and Environment(生态与环境)。

别小看这个“and”。在宪法文本中,“生活环境”与“生态环境”本是并列关系。但随着语境变迁,“生态环境”后来居上,演变成了“生态+环境”的宏大叙事。维特根斯坦那句著名的哲学命题——“语言的边界即世界的边界”,在法律领域尤为残酷:法律语言的一个细微调整,往往决定了公权力介入私生活的深度与广度。

表面上看,法律条文白纸黑字,人人都能读懂。但实际执行起来,文字背后的“边界线”却远比我们想象的复杂。

广场舞的喇叭,与抖音里的“法学家”

最近,我小区业主群又热闹了起来,主要是旁边一群广场舞大妈,每天晚上搞得喇叭声震天。业主群里有人发了一段抖音短视频,兴奋地告诉大家:“新修订的《治安管理处罚法》生效了,警察可以直接拘留这些噪音扰民的!大家快打110报警!”

在短视频平台的语境里,法律被极度简化成了“快意恩仇”。但作为法律从业者,我深知:拘留这种限制人身自由的强制措施,从来不是拍拍脑袋就能执行的。 噪音扰民,在法律底层逻辑中,首先是一个民事侵权或行政管理问题,最后才是治安违法问题。

拆解《治安管理处罚法》第88条

大家之所以觉得“法律改了就能抓人”,是因为看到了新版《治安管理处罚法》第八十八条提到的“五日以下拘留”。但很多人忽视了触发这条惩戒的前置路径,也就是条文中那个被忽视的 “经” 字:

第八十八条 违反关于社会生活噪声污染防治的法律法规规定,产生社会生活噪声,基层群众性自治组织、业主委员会、物业服务人、有关部门依法劝阻、调解和处理未能制止,继续干扰他人正常生活、工作和学习的,处五日以下拘留或者一千元以下罚款;情节严重的,处五日以上十日以下拘留,可以并处一千元以下罚款。

这个 字,就是公安机关执法时的“程序防火墙”。

1. 它不是并列,而是递进

公安机关对这一条的理解通常是,治安处罚是最后一道防线。 如果你直接拨打110,警察大概率会问你:“找过物业了吗?找过居委会吗?报过城管了吗?”这不是推诿责任,而是法律设定的 “穷尽救济原则”。警察需要确认,在动用强制措施之前,社会的自我调节手段(物业、居委)和行政执法手段(有关部门处理)是否已经宣告失败。

2. 谁是那个“有关部门”?

从2026年8月即将施行的《生态环境法典》来看,社会生活噪声的监管职权通常在地方政府指定的部门(如城管)。如果你没有拿出一张城管部门下达的《责令改正通知书》,证明对方在行政警告后依然“未能制止”,公安几乎没法直接定性对方为“违反治安管理”。

噪音维权的“通关指南”

如果要让治安管理处罚法第88条的“牙齿”真正咬合,我们需要构建一套闭环的证据链:

  1. 激活基层职责: 根据《生态环境法典》第599条,在住宅区这种“噪声敏感区域”,物业和居委劝阻调解是法定职责。留下你的投诉记录,这是第一步。
  2. 触发行政干预: 拨打12345,要求城管等“有关部门”介入处理。只要他们出警并留下了处理记录(哪怕只是口头警告并记录在案),你就拿到了开启治安处罚的钥匙。
  3. 治安兜底: 当上述手段都失效,对方依然“继续干扰”时,再拨打110。此时你可以理直气壮地引用第88条,告诉警察:“程序已走完,请依法处罚。”

结语

回到维特根斯坦的那句话。如果我们对法律的理解仅停留在短视频的口号里,那么我们的维权世界就是狭窄且充满挫败感的。只有理清了条文背后复杂的程序边界,我们才能在喧嚣的生活中,精准地拿起法律这把手术刀,切中问题的要害。法律不是用来泄愤的爽文,它是需要精心布局的维权棋局。

参考法律条文:

《生态环境法典》 第五百九十九条 对噪声敏感建筑物集中区域的社会生活噪声扰民行为,基层群众性自治组织、业主委员会、物业服务人应当及时劝阻、调解;劝阻、调解无效的,可以向负有社会生活噪声污染防治监督管理职责的部门或者地方人民政府指定的部门报告或者投诉,接到报告或者投诉的部门应当依法处理。

小型纯 CPU 环境的中文命名实体识别模型选择

2026-03-31 17:12:28

最近我在开发一款智能案例分析应用,因本地没有合适的模型能够达成分析效果,只能借助远程全量大模型来分析。但这过程中,如何保障数据安全则是一个非常重要的话题。我的初步设想是,在提交远程分析之前,先在本地做数据脱敏,并且在数据脱敏前,绝不能上云。由此,我开始了一段漫长测试。

小模型的效率和精度取舍

起初,我追求极致的轻量化,尝试了 20MB 左右的纯前端小模型 ,比如 ckiplab-bert-tiny-chinese-ner 以及更加精简的 ckiplab-albert-tiny-chinese-ner。用起来确实爽,我在用 100 条测试数据进行批量抽取时发现,这种小模型在 PC 上几乎是几秒钟就处理完了。只是处理精度略显不足,在数据正文中很多人名、机构名并没有被准确识别;而且一些三字人名被同时识别成了两个人。特别是面对一些口语化表达的案例时,很多口语化的实体名字,也都无法识别出来。

NER 脱敏处理

当然,我在设计这个应用过程中,本就考虑到这种情况,所以添加了一个非常人性化的人工审校机制。将前边脱敏后的数据,打碎成一个一个的汉字,点选未能完成的脱敏词汇即可自动补充进脱敏数据库。

人工校验

但小模型处理效率确实不高,我实测可能有接近 30% 的人名以及简写地名、公司名未能识别出来。特别是案例中提到的一些地区简称、单位缩写,这类 NER 模型拿着几乎无法识别。而一次性替换这些字、词,很容易导致正文语义错乱。手工操作起来也很头疼。

大模型对硬件考验压力很大

随后,我转向了最近风很大的“小参数大模型”,也就是 Qwen3.5:0.8B ,作为对比,也同时拉了去年的 DeepSeek-R1:1.5B 测试。毕竟,在纯 CPU 环境下,这已经是我能忍受的极限尺寸。我本以为大模型的语义理解能通杀一切,结果在实体抽取任务中,它们表现得极其不稳定。不仅逻辑门槛迈不过去,长文本也极易丢失命令,唯一好点的是,在关闭 Qwen 的 think 模式后,吐字终于算是恢复正常,但每轮测试时,出来的数据都很不稳定。

Qwen3.5:0.8b测试数据脱敏

但过程中也不是没有收获,我不死心的用 Qwen3.5:4B 进行了测试,结果发现 4B 模型对我这种长文本的脱敏需求,效果非常好,几乎可以看成是与 0.8B 完全两个不同的模型。只是,在我测试所用笔记本电脑上,Ollama 版 Qwen3.5:4b 的吐字效率仅有 5 tokens/s ,即便换成 gguf 版本,也只能到 7 tokens/s,用起来还是很难受的,一条 100 字以内数据都要 2 分钟。

Qwen3.5:4b测试数据脱敏

指标 Ollama (标准版) Unsloth GGUF 优胜者
Prompt 预处理速度 (Prefill) 77.38 tok/s 27.5 tok/s Ollama (快 2.8 倍)
文本生成速度 (Decode) 5.53 tok/s 8.6 tok/s Unsloth (快 1.5 倍)
总耗时 (Total) 163.5s 119.4s Unsloth (节省约 44s)
输入 Token 数 754 778 -
生成 Token 数 847 779 -

中等 NER 模型在性能和效率上总体比较平衡

在开发这个项目过程中,我还对比测试了 RaNER、HanLP、SpaCy、Siamese-UniNLU 等方案。过程中没有留下详尽的对比数据,但主观实测后似乎没有一个能满足我的需求。比如 RaNER 一开始就是在长文本时出现问题,Siamese-UniNLU 也是败在长文本上。SpaCy 和 HanLP 则是在文字截断上反复出现问题,对于一些实体名称的判断,经常与前后字符扯在一起。

在反复折腾中,最后我选择了两套看起来在性能和效果上比较平衡的方案:

纯本地 CPU 环境,使用 RaNER 与 REX-UniNLU

在折腾了一圈后,我最终回过头来死磕阿里系的两个专项模型:RaNERREX-UniNLU

RaNER (Base-Generic) 本来是我第一个下载的模型,但是他对长文本处理存在很大短板,默认只能支持 512 Tokens,但是放眼中文圈,各种评测数据都显示 RaNER 的效果是最强的,400MB 的通用 Base 版对人名、地名和机构的识别精度可以达到 91%。虽然我在测试时,发现其在法律领域可能达不到这么高比例,但考虑到我最终的应用方案是“NER 脱敏 + 人工确认 + 护栏审查”方式,实际上只需要两套不同逻辑的 NER 模型即可实现更高的精度。

REX-UniNLU (DeBERTa-v3) 是我在测试 Siamese-UniNLU 时偶然发现的,应该是作为 Siamese 的替代项目,并且原生更好地解决了长文本输入问题。但由于这个模型也是个 400M 的通用模型,它不仅能干 NER 的活,而且能搞关系、事实和情感抽取,所以放在后边当数据护栏审核其实相当不错。它对口语化表达和复杂嵌套实体的捕捉非常敏锐,很好地补全了传统 NER 模型在边界判定上的死板。并且,在这过程中,我引入的是最严格的实体抽取模式,它几乎能把所有“涉嫌”实体的名称都给抽取出来。

REX-UniNLU进行审校

在线 VPS 环境,使用 ckiplab-albert-tiny-chinese-ner 与 SpaCy

如果说 RaNER + REX 是为了在 16G 内存的 PC 上追求极致精度,那么当我把视野转向 4G 内存的群晖 NAS,或者只有 1 核 2G 的便宜 VPS 时,这套“重装甲”就跑不动了。在这种极限环境下,我最喜欢的组合是 ckiplab-bert-tiny-chinese-ner 配合 SpaCy。

ckiplab-albert-tiny 只有不到 15MB,它的作用是利用 BERT 的残余语义能力,在毫秒级时间内把文本中那些最明显的、格式规范的人名和地名先“洗”一遍。虽然它会漏掉复杂的口语表达,但它极低的算力消耗为后续流程腾出了空间。

紧接着,我引入了 SpaCy (zh_core_web_md)。SpaCy 的优势不在于它有多“聪明”,而在于它极高的工业稳定性。作为一套基于 Cython 实现的 NLP 框架,它在处理行政区划和基础机构名时表现得非常稳健。把这两个模型串联起来,一个负责快速冲锋,一个负责守底线,再加上我的“人机审校”逻辑,在低功耗环境下依然能构筑起一道坚实的数据安全护栏。

三句话400万tokens,难怪这么多厂商都去搞OpenClaw

2026-03-26 11:02:06

今天看有人在群里面转发信息,说安装飞书后可以一键安装 Openclaw 然后还送 400 万Tokens,于是我兴冲冲下载来试用。

极简安装

跟我之前在 ubuntu 或者 docker 安装得折腾半天相比,飞书这个安装过程可以说是颠覆式的。

下载 App 然后注册,一打开界面就会自动弹出一键安装小龙虾的提示。然后点击一下,等两分钟就搞完了。

1

默认 Ai 有点傻

我还没来得及问他这个内置AI到底用的是哪个模型。先测试一下网络连接,让他去网上查一下Hackernews 今天有什么有意思新闻。

2

结果半天没反应。等了差不多5分钟后连续出来一堆信息,说网络超时。

3

然后我改了个需求,让他查查今天的微博热搜是啥。 结果他一直在上一个任务里面出不来,依然在反复访问 Hackernews 但没成功。

4

我第三次提醒他,去看微博热搜,而不是继续上一个任务,这才终于转过弯来。

5

但很显然,它弄了半天,硬是没把微博热搜给找出来。给了一堆理由,虽然都挺有道理,但很显然,微博热搜也不知是微博本身能找到,其他很多网站都会拉取这些信息。

6

经过它多番思考,最后还是给找到了微博热搜的镜像版本。

7

然后我让他依葫芦画瓢,重新找一找 HackerNews 的镜像信息,这下确实找出来了。

8

既然都找到信息了,于是我提出了第三个需求,想测试一下他对文章内容的分析能力,以及测试一下能否搜索购物网站。

9

然后,就没有然后了。400 万 Tokens 已经花光了!!!

由于我还没来得及问它是啥模型,这里让豆包随便算了下 400 万 Tokens 价格。

10

有钱人的游戏

讲实在的,这次试用从头到尾有效时间不超过 5 分钟,我是没想到,这模型消耗量居然可以快到如此地步。 之前我在自建小龙虾上用上一两个小时貌似也才三四百万 Tokens ,那还是密集对话,大量长文字输入输出的。按照这个消耗量,小龙虾真没多少人养得起。

11

建议把 Ai 的 Tokens 翻译为“爱信”,这东西跟“短信”“彩信”真没区别

2026-03-22 13:13:01

不知道大家在使用“龙虾”的时候消耗 tokens 是啥感觉,我现在就一个想法:这东西真是太像短信包了。

消失的“字数焦虑”回来了

记得 20 年前,手机屏幕还没现在一些手机的摄像头区域大,一边是 5 块钱 30MB 的流量包,另一边是 5 块钱 100 条的短信包。每个月都得精打细算,数着数字过。

结果现在倒好,20 年过去,那捉襟见肘的感觉又回来了。一旦“话费”没了,小龙虾就不给你回信息了。

讲起来,现在主流的 Ai Tokens 用法就两个:包月套餐、预充值按量付费。

包月套餐那边,国内各大平台入门价格基本都是 40 元/月。比如我正在用的智谱 GLM,包月 49 块钱,每周能收发 400 条信息,算下来倒也不贵,只要 3 分钱一条。

问题是,这个套餐限制每 5 小时 80 条信息,也就是每小时 16 条,如果是高强度使用 Ai ,基本用上半个小时就进入一次“AI 冷静期”,真想好好发挥小龙虾功能,得往上选 149 块甚至 469 块的月套餐,才能满足需求。

所以,搞来搞去又回到从前,还是得精打细算,每条信息尽量多写点内容,争取“把70个字写满”再写下一条。

为什么我建议 Tokens 翻译成“爱信”

我们这代人,经历过短信(纯文本)、彩信(带图片)、飞信(跨端通信)和微信(移动互联)。本以为在流量早已包月、视频随便刷的 2026 年,计费单位应该以 GB 起跳,结果 AI 的出现,硬生生把我们拽回了数对话次数的石器时代。

想了想,Tokens 叫什么“令牌”太生硬,毕竟那边还有 API 也没取名呢,而叫“点数”又显得太网游,思来想去,感觉“爱信”最传神。从发音上,这东西就是跟 Ai 结合的,AI 发来的信息,即为“爱信”。从意义上,它是智慧(Intelligence)驱动的通信,每一条都带着算力的温度。最主要就是痛点,看着蹭蹭往上涨的消耗,真是“爱信不信”,这钱反正是扣了。

现在的 AI 生图,就是当年的“天价彩信”

如果说 Ai 文本对话是 1 毛钱一条的短信,那么 AI 生图、生视频就是当年大家都感觉发不起的“彩信”。

我查了一下,现在主流的生图消耗,如果按 Token 或算点折算,生成一张高质感的图片,成本往往是纯文本对话的几十倍甚至上百倍。这种消耗感简直惊人。

当年的彩信是一张糊得看不清脸的 300KB 图片,5 毛钱。

现在的 AI 生图,一张 4K 级别的超写实肖像,折算下来可能要 1 到 2 块钱算力成本。

实际使用中,几乎是能不用就不用,能省则省了。

最坑的是啥?

Ai 生图、生视频是个无止尽的需求。你得不断改提示词,不断调优才能得到自己想要得效果。这东西,消耗起来,比当年彩信发送接受失败还被扣了钱更心疼。

当然了,这里的“文生图”主要还是讲的目前头部几家 Ai,至于各家都推出的免费体验或者“降智”模型就不在考虑之类了。毕竟,真正好用的“Ai”,从来都不便宜。

特朗普说的“纸老虎”最早的出处到底是哪里?

2026-03-20 10:39:38

前两天看了个视频,里边提到特朗普所引用的“纸老虎”这个词,源头是《毛选》,我当时感觉有点怪,因为我似乎记得以前曾在一些更老的线装竖版小说里看到过这个词。于是我就顺手去查了一下,没想到,这一查,事情就开始变复杂了。

出自毛选

《毛选》里的“一切反动派都是纸老虎”这个表述,相信绝大多数中国人都应该知晓,而“纸老虎”这三个字能够被广泛使用,也得益于此。因此,多数人不假思索将其当成源头,其实也很正常。但是从“考据”的心态来讲,我还是想寻求一下这个词真正的源头。

出自广东土话字典

在网上有一个通行的说法,即“纸老虎”的源头是 1828 年英国传教士马礼逊编写的《广东省土话字汇》。我在网上找了一圈,没能找到这本书的 PDF 版本,但是,从常理推断,如果一个词被选进一本字典,那显然这个词其实已经“广为流传”,把词典当成一个字的源头,显然没有道理。

出自明清小说

在腾讯元宝查询这个问题,元宝提出,“纸老虎”的说法,最早可见于清代小说《姑妄言》。在这本小说第十五回,有一句“至今我的老爷是个纸老虎,原是个假的,只好吓小孩子同乡下人”。我仔细查了下,这个说法的源头,应该是《华语桥》上的一篇文章《也谈“纸老虎”的来历》。但作者在文章中,同时提出,他在《红楼梦》中也查到这个说法。另外,作者考据到在明代的《金瓶梅词话》和《禅真逸史》中也都看到这个词,而前者大概是万历年间成书,在 1600 年前后,后者大概成书于天启末年,也就是1627年左右。

出自元末明初小说

其实查到这里,我其实有点卡住了。毕竟前人已经考据了很多内容,追溯到万历年间。但我依然不死心,换了个 Ai 继续问。结果在千问那边,它得出一个结论,说“纸老虎”的源头在《水浒传》。这就有意思了。

我立马搜索《水浒传》全文,不过很遗憾,没有找到“纸老虎”三个字。但却找到了“纸虎”这个概念。“纸老虎”“纸虎”虽然一字之差,但其实本质含义是相同的。在《水浒传》第二十五回写武大郎捉奸西门庆时,潘金莲对西门庆大骂到”见个纸虎,也吓一交!” 而这个“纸虎”毫无疑问与我们当代用的“纸老虎”实际上是相同的用法,都是比喻用意。

武大抢到房门边,用手推那房门时,那里推得开。口里只叫得:“做得好事!”那妇人顶住着门,慌做一团,口里便说道:“闲常时只如鸟嘴,卖弄杀好拳棒,急上场时便没些用。见个纸虎,也吓一跤!”那妇人这几句话,分明教西庆来打武大,夺路了走。西门庆在床底下听了妇人这几句言语,提醒他这个念头,便钻出来,说道:“娘子,不是我没本事,一时间没这智量。”便来拔开门,叫声:“不要来!”武大却待要揪他,被西门庆早飞起右脚。

按照这个思路,我又找了下《水浒传》同时期小说,特别是罗贯中、冯梦龙的,毕竟罗贯中就是施耐庵的弟子,而且这三人的小说,流传最广,内容最多。

于是我在罗贯中的《平妖传》中也找到“纸虎”这个概念,甚至就直接写在第十四回的标题上:“圣姑堂纸虎守金山,淑景园张鸾逢媚儿。”

平妖传

宋代以前的“纸虎”

找到元末明初,其实我心中已经基本有了答案。为了验证一下,我又找来数个古籍搜索网站查询,但搜到的“纸虎”,就是剪纸的“纸虎”,并没有发现与现代一样,用作比喻用法的。

古籍搜索

不过,这过程中倒也不是完全没有收获,猛然看到一个唐代可能是与佛经有关的内容中,提到“纸虎”。不过点进去一看,哦嚯,原来是 OCR 识别错误。原文写的是“二十六纸”和“虎耳太子经”,跟“纸虎”没任何关系。只是古人没有发明“标点符号”,两个字恰好连在了一起。

但也就是这个与佛经有关的搜索结果,让我进一步联想到,是否可以搜搜佛经呢。毕竟日常用的古籍搜索,其实只会少量收录这些佛经文献,如果要更大范围查找,还是需要使用专门的数据库才行。

但很遗憾,我并未在宋代以前的佛经中寻找到关于“纸老虎”“纸虎”相关信息,倒是找到一个明朝的《三宜明盂说》,里边明确提到禅师在徒弟礼拜后,教训徒弟时,徒弟反而虚张声势,结果被禅师说其是“一个纸老虎”。这已经跟我们现代用法一模一样了。

三宜明盂·说

一僧礼拜起,师云:“错。”僧一喝,师以杖作呈势云:“此令合上座行。”僧以坐具打圜相,师搊住云:“何不道将一句来?”僧云:“恐成狼藉。”师连打云:“一个纸老虎。” —— [明]三宜明盂·说,[明]净范·编

结论

所以,如果一定要给一个结论,我更倾向于这么理解。“纸老虎”这个概念,形成于元末明清的小说写作时期,可能是吸收借鉴了当时民间流传的故事,或者也有可能就是作者自己“想象”出来的概念。但无论如何,这个概念在施耐庵(约1296年—约1370年)写《水浒传》的时期就已经出现了,毕竟施耐庵也只是“集撰”,具体里边的事例,源头还在1119年的北宋时期的梁山起义。到了罗贯中所处的明初时期(约1330年—约1400年),“纸虎”的概念已经多次使用,而发展到明末,就连佛教文献也开始用上“纸老虎”概念。之后,到清代不管红楼梦还是各种其他小说,“纸老虎”概念越用越广泛,甚至于地方的方言字典上都把这概念收录了进去。而到 1946 年,“一切反动派都是纸老虎”以及后来“美帝国主义是纸老虎”,让这个词得到全面推广,以至于后来外国人都开始用上了。

有时候,问题的答案没那么重要,但把这些东西一层层拆开,本身就已经很有意思了。