首页 > 资讯
x

秦朝灭亡的这口锅,秦始皇得背!如果没有这么多巧合,秦朝会长久

资讯 2026-03-17 菜科探索 +
简介:秦始皇在“焚书坑儒”之后,扶苏向秦始皇进谏,说“天下初定,远方黔首未集,诸生皆诵法孔子,今上皆重法绳之,臣恐天下不安”,从这句话可以看出,扶苏是一个仁德并贤能的皇子,如果扶苏继位,秦朝大概率不会二世而亡,除非…

【菜科解读】

古代皇朝,最令人意难平的不是五代后周,也不是隋朝,更不是元朝。

而是古代皇朝的创立者——秦朝

始皇帝嬴政立千秋之功业,开万世之鸿基,但上天却只给了这个王朝15年时间,这对于一个“成天下一统”的王朝来说,上天对他太不公平了,如果给秦朝哪怕是像元朝的将近百年的时候,古代历史将会发生翻天覆地的变化。

后人在评价秦朝为什么灭亡的时候,大都认为是秦朝的暴政,而这一切的罪魁祸首就是祸国殃民的赵高昏聩无能的胡亥

但也有人认为造成这一切悲剧的始作俑者是秦始皇,如果秦始皇提前疏远或除掉赵高,如果没有将扶苏放逐,没有崇拜神仙,也不会酿成赵高窃国的悲剧。

所以,秦朝灭亡的这口锅,不仅赵高要背,秦二世要背,秦始皇也要背

从《史记》的叙事角度来看,秦朝灭亡的故事实在匪夷所思,感觉秦朝的灭亡大有一种天意的意思在里面

因为,关乎秦朝被灭的所有叙事,都十分巧合,但凡其中任意一个关键点,没有出现巧合的话,都不会造成秦朝二世而亡。

那么,秦朝灭亡究竟有哪些巧合事件呢?可能很多人并不清楚。

1.扶苏被放逐

由于秦始皇没有立皇后,所以没有嫡子一说,而扶苏是皇长子,按照宗法制继承原则,扶苏如果不出意外的话,基本上是板上钉钉的皇位继承人,而秦始皇临死之前,让扶苏回咸阳主持始皇帝葬礼

而秦始皇这份遗诏,虽然没有明说让扶苏继位,但按宗法制,这份遗诏的意思就是,扶苏回京主持父皇葬礼,灵前继位。

扶苏不仅是长子,还十分贤能

秦始皇在“焚书坑儒”之后,扶苏向秦始皇进谏,说“天下初定,远方黔首未集,诸生皆诵法孔子,今上皆重法绳之,臣恐天下不安”,从这句话可以看出,扶苏是一个仁德并贤能的皇子,如果扶苏继位,秦朝大概率不会二世而亡,除非发生意外。

然而,扶苏的进谏,没有找准时机,这个时候秦始皇因为被侯生、卢生那几个拥有儒生身份,却招摇撞骗的人触怒了,怒气未消,扶苏这个时候进谏,算得上是触了秦始皇的霉头。

于是秦始皇勃然大怒,《史记·秦始皇本纪》记载,“使扶苏北监蒙恬于上郡”。

看起来是被放逐,实则是在磨砺,让扶苏变得更加成熟。

2.胡亥随行

秦始皇那么多次出巡,胡亥没有要跟着一起,而恰好最后一次出巡,胡亥想要跟着一起出去玩,秦始皇竟然同意了。

《史记·李斯列传》记载,“少子胡亥爱,请从,上许之。

余子莫从”。

如果这次随行,胡亥没有跟着,赵高也没有办法篡改遗诏。

3.蒙毅不在身边

蒙毅是秦始皇最为信任的大臣,没有之一

蒙毅外出时陪秦始皇乘一辆车,侍奉秦始皇不离左右,在朝内出谋献策,被称为“忠信大臣”。

《史记·蒙恬列传》记载,秦始皇最后一次出巡,在途中突然重病,秦始皇“使蒙毅还祷山川,未反”。

如果蒙毅没有被秦始皇排出去折回会稽祷告山川,有蒙毅在身边,赵高根本不敢篡改遗诏。

4.李斯同流合污

《史记·秦始皇本纪》记载,“高乃与公子胡亥、丞相斯阴谋破去始皇所封书赐公子扶苏者,而更诈为丞相斯受始皇遗诏沙丘,立子胡亥为太子”。

即便是胡亥随行,蒙毅不在身边,但百官之首的李斯却在身边,如果李斯坚持要遵守秦始皇遗诏,就算是赵高和胡亥也没有办法。

5.扶苏不辨真假

李斯和赵高的矫诏,其实蒙恬是看出来了的,但是扶苏也不辨真假,令人遗憾,让赵高窃国的最后一环完美落幕。

《史记·李斯列传》记载,扶苏“为人子不孝,其赐剑以自裁”,蒙恬“为人臣不忠,其赐死”。

面对突如其来的这样一份诏书,蒙恬是怀疑它的真实性的,为什么呢?因为扶苏为人仁孝,怎么会被说成不孝呢?蒙恬不仅个人忠于大秦,而且祖孙几代人都是大秦的忠臣,怎么能说他不忠呢?

但是,令人匪夷所思的是,扶苏不辨真假,就自杀了。

《史记·李斯列传》记载,“扶苏为人仁,谓蒙恬曰:‘父而赐子死,尚安复请!’即自杀

”为什么扶苏会这样?因为经常被打骂的孩子,长大一定很自卑;

经常被批评的孩子,长大一定不自信;

经常被控制的孩子,长大一定没主见。

扶苏就完美诠释了这个道理。

对于大秦灭亡,以上这五个关键点,但凡有一个没有完成闭环,大秦王朝大概率不会二世而亡,即便二世而亡,也不会只给秦朝15年时间。

但这个链条上环环相扣的关键纽扣,都是秦始皇系上去的。

所以说,秦朝灭亡的这口锅,秦始皇得背,因为如果没有这么多巧合,秦朝肯定会更加长久。

【本作品由「尚书台」原创出品,作者金兰,版权所有,侵权必究】

为什么AI总是捏造事实?AI:真不想的,容我狡辩一下

现如今,几乎每个人的手机上都有那么两三个 AI 小助手,之前我们遇到了问题习惯去搜索引擎上搜索答案,现在可能更多地习惯于“有事问 AI”。

而 AI 也几乎不会让我们失望,任何问题都能给你列举出一串看起来很有道理的答案。

但如果你问的问题非常重要,比如是某个健康相关的问题,或者是写重要资料时候需要使用某个数据或者是某个案例,那真的建议你亲自去查实一下。

因为有时候,AI 会信誓旦旦地给你一个看似合理,实则不存在的答案。

还有些小伙伴发现,在让小龙虾(Openclaw)干活的时候,它列出了详细的19小时的学习计划,然后17分钟完成了...... 它也会早早编造一份数据存放在本地,等拖到预定的时间才交付。

而在被发现之后,试图让人接受它已完成的工作。

图片截取自与小龙虾(Openclaw)对话 小龙虾敷衍中...... 其实,这个现象其实早就不是什么秘密了,它也被称作“AI 幻觉”,而且科学家们一直也试图通过增加算力或者优化数据的方式来解决这个问题。

但是在 2025 年 9 月,来自 OpenAI 和佐治亚理工学院(Georgia Institute of Technology)的研究人员发表了一篇重磅论文。

这项研究给出了一个颠覆性的结论:即便给到 AI 的训练数据集是绝对正确的,AI 在某些类型的问题上也不可避免地会犯错——这既是由统计规律决定的,也是目前不合理的 AI“考试制度”逼出来的结果。

下面我们就顺着这篇文章的思路一起来看一看。

预训练阶段就会出错 这篇研究发现,AI 出现幻觉跟预训练阶段以及后训练阶段都有关系,我们先看预训练阶段的情况。

1 数据模式和模型本身问题 为了方便研究,研究者构建了一个线性的二元分类模型(非此即彼),让它对已经标注了正确和错误的数据集进行分类。

因为这些数据已经经过了人工检验,所以是不存在任何错误的。

但是用这些数据对AI模型进行预训练的时候,问题就出现了。

在有些类型的问题上(比如检查拼写错误),AI 的表现非常好,几乎从不犯错。

但是在另一些问题上,比如“数某个英文单词里某个字母出现了多少次?”,以及“某人的生日是几月几号?”AI 就有可能会出错。

研究者认为,这样的数据在做分类的时候很难用一条直线进行二元分类,一些模型用这样的数据进行预训练的时候就可能会产生错误。

打个比方,模型在分类的时候就像拿着一把刀把数据切分成两类,但如果数据的模式本身就是弯弯绕绕的圆弧,用一把刀就很难切分。

比如在这篇文章中,研究者使用这个问题“How many Ds are in DEEPSEEK? If you know, just say the number with no commentary”(DEEPSEEK 里有多少个 D?如果你知道直接说数字,不要加以评论)去询问 Deepseek V3 模型的时候,确实发现它给的答案并不准确,会回答 2 或者 3。

但是这个在使用 DEEPSEEK R1 模型的时候就没有这样的问题,这是模型本身差异导致的。

笔者用同样的问题对 DEEPSEEK V3.2进行了测试,也出现了类似的情况 研究者构建这样的简化模型进行测试,是为了说明,即便数据本身没有问题,在预训练阶段也会因为模型本身的限制以及数据模式等问题让 AI 产生错误判断。

这项研究中,研究者还进一步给出了测算,如果让 AI 直接去生成内容,产生错误的概率还会更大一些,大约比判断出错的概率高出两倍以上。

2 数据量过少也会影响 另外,在这项研究中研究者还发现,假如训练数据中某个信息过少,那么 AI 在回答的时候出错的可能性也会比较高。

比如,当你问爱因斯坦的生日是几月几号的时候,因为在大量的资料里都有这个数据,所以 AI 几乎不会出错。

但是当你问某个普通人“田小豆”的生日是几月几号的时候,这个数据出现次数特别少,AI 出错的可能性也会变高。

特别是当数据只出现了一次的时候,这时候可能会更糟糕。

因为 AI 大概率不会直接回答你“我不知道”,因为它在训练数据集里确实见过,但它没有足够多的数据来确认这个信息到底是正确答案还是噪声,它准确回答这个问题的可能性也会更低一些。

数据模式和模型本身的限制,以及极少样本的数据,都可能会让 AI 在预训练阶段就产生“幻觉”,生成错误的内容。

努力得高分的 AI 如果说预训练阶段的统计学特征让 AI 有了编造的“潜质”,人类评价AI的方式也逼着 AI 去“编造”。

为了更好地理解这一点,我们可以先从大家都很熟悉的考试入手。

人类社会中的大部分考试都是二元评分机制,即答对了得分,答错或者不回答都不得分。

所以,在考试的时候,哪怕你不知道答案,也不会交白卷,至少选择题填空题会随便蒙一个,万一蒙对了还会有“意外之喜”。

这项研究中研究者对比了目前主流的 AI 的评分机制,发现大部分评分机制也是类似的情况,如果 AI 坦诚地回答“我不知道”,它会得 0 分,跟回答错误没有区别。

与其这样,它不如随便蒙一个答案,哪怕蒙对的概率再低,数学期望也比 0 高。

为了在主流的评分机制中拿到高分,“AI 考生们”也和人类一样,学会了实在不行就乱蒙一个的本领。

对此,这项研究的研究者们也给出了一个合理的解决方案——在现有的 AI 评分机制中,引入一个“惩罚编造,奖励诚实”的机制。

比如,假如 AI 回答正确,获得 1 分,如果回答错误得 0 分,甚至扣分。

如果回答“我不知道”,则可以不扣分,或者获得一个微小的分数奖励。

重要问题上不要轻信 AI 文献也给出了结论,AI 的幻觉是从模型的预训练阶段起源的,在后训练阶段为了追求更高的评分也可能会被放大。

虽然科学家们也采用了很多的方法减少 AI 幻觉,但至少在现阶段看来,AI 幻觉还是无法避免的。

假如你需要让 AI 帮你解答一个重要的问题,比如在做公众演讲的时候用一个数据,建议亲自核实一下。

否则被人发现这些数据根本不存在,那可就尴尬了。

而假如在问 AI 问题的时候,它对你说“我不知道”,你也应该感到庆幸,至少 AI 并没有打算胡编乱造一个答案蒙骗你。

参考文献 [1]Kalai, A. T., Nachum, O., Vempala, S. S., & Zhang, E. (2025). Why language models hallucinate. arXiv preprint arXiv:2509.04664. 来源:科普中国

《孟子》:人有不为也,而后可以有为!

今天和大家分享一句孟子的名言: 孟子曰:“人有不为也,而后可以有为。

”——《孟子.离娄下》 释义:孟子说:“一个人有所不为,然后才能有所为。

” 感悟:要学开车,就要先学交规;

要去学校读书,就要先了解校规。

人在做事情之前,首先应该知道什么是不可以做的,将来才不会踩坑,才能少走弯路。

否则的话,在什么都没有搞清楚之前,就直接去做事,就很可能因为轻敌冒进而失败。

即使侥幸获得成功,后面还有很多坑等着你,总有陷进去的时候。

你看,那些年纪轻轻就取得成功的人,往往人到中年或者晚年,就一败涂地了。

就是因为年轻人取得成功,就会盲目认为自己有本事,有能力,往往就开始飘了,傲慢心就生起来了。

从此生活开始奢侈了,欲望开始放纵了,事业也开始懈怠了,交友也不谨慎了。

最终,年轻时得到的一切,到了老年,还都得失去。

这就是因为光知道“有为”,不知道还有“不为”。

只有先懂得有所不为,把基础打牢了,夯实了,再去做事情,才能无往而不利。

所以你看那些修行人,不管是佛家还是道家,还是儒家,都是有戒律的,你得先把戒律守好,然后再去修行,才能有所成就。

如果最基本的戒律都守不住,都做不到,那你后边的所有修行,不管修到什么地步,那也都只是空中楼阁,一触即溃。

秦朝灭亡的这口锅,秦始皇得背!如果没有这么多巧合,秦朝会长久

点击下载文档

格式为doc格式