耕读频道 @igengdu | 耕读博客 igengdu.com
#观点 #理性 #审慎
通常,我们认为,人,是理性的芦苇,是理性的动物。也就是说,人的重要特征是讲理性。
而理性是什么呢?说通俗点,就是道理。成人重要的判定标准是理性的独立,而未成年人,通过表现为理性上的不独立、不完整。
讲理性,就是讲道理,看人看事都讲道理。这表现为,我们每个人善于表述清楚自己的观点,同时学会说明支持自己观点的理由及其支撑的力度。同时,对于他人的行为或观点,需要尽量考察事实,听取当事人的陈述和论述,不可断章取义、先入为主、不看事实就断言。
如果我们不思考我们观点支撑的理由是否充分合理,就盲目地相信这个观点,那么,我们容易走向一个极端:不认同自己观点的,都是错的,是需要消灭的。
这种观点,不仅表现为所谓的“小粉红”,还表现为一些从中国出生长大并留在异国生活,但却仇视中国的一切的人:他们见到中国不好的现象就骂,包括却不限于说,支那猪活该,闻到支那人的味就恶心等等。
小粉红不讲道理,或看似讲道理,但从根本上是不讲道理的,我们需要审慎看待。这种仇视某个群体一切的态度,同样是不讲道理的行为,也需要我们警惕自己滑入这种思维的牢笼。
这种仇视一切的态度,跟小粉红的态度,其基本立场是一致的:凡是不跟我一样的想法,都不允许。更重要的是,两者都不尊重人,不把人看作具体的、活生生的人。
我有时在想,那些说闻到支那人的味就恶心的人,当其面对自己父母时也会这么说吗?这种骂或贬低、蔑视态度,就能显得自己高贵,就能实现自己的目的吗?人的高贵不应该表现在理性上的对人的尊重,对他人观点的包容吗(考虑到我们每个人都可能无法完全理解另外一个人或无法完全把握一个事实的前提下)?
另外需要说明的是,支那这个词,原本是中性的,而且用了很久,只是后来被视为是贬义的。支那,原来只是外国对中国的称呼而已,其出处可能有二,一是源于拉丁文表示中国的词语—Sinae(sino)—的音译;二是源于梵文表示中国的词语—Cina—的音译。而Sinae似乎源于当时秦国(Qin,Sin,Zin)的拉丁式写法。只是这个词语后来掺杂民族主义的影响,导致这个词语具有贬低的意味,然而仔细深究。
@耕读博客
📢 频道 ✈️ 群聊 (耕读) 📬 投稿
通常,我们认为,人,是理性的芦苇,是理性的动物。也就是说,人的重要特征是讲理性。
而理性是什么呢?说通俗点,就是道理。成人重要的判定标准是理性的独立,而未成年人,通过表现为理性上的不独立、不完整。
讲理性,就是讲道理,看人看事都讲道理。这表现为,我们每个人善于表述清楚自己的观点,同时学会说明支持自己观点的理由及其支撑的力度。同时,对于他人的行为或观点,需要尽量考察事实,听取当事人的陈述和论述,不可断章取义、先入为主、不看事实就断言。
如果我们不思考我们观点支撑的理由是否充分合理,就盲目地相信这个观点,那么,我们容易走向一个极端:不认同自己观点的,都是错的,是需要消灭的。
这种观点,不仅表现为所谓的“小粉红”,还表现为一些从中国出生长大并留在异国生活,但却仇视中国的一切的人:他们见到中国不好的现象就骂,包括却不限于说,支那猪活该,闻到支那人的味就恶心等等。
小粉红不讲道理,或看似讲道理,但从根本上是不讲道理的,我们需要审慎看待。这种仇视某个群体一切的态度,同样是不讲道理的行为,也需要我们警惕自己滑入这种思维的牢笼。
这种仇视一切的态度,跟小粉红的态度,其基本立场是一致的:凡是不跟我一样的想法,都不允许。更重要的是,两者都不尊重人,不把人看作具体的、活生生的人。
我有时在想,那些说闻到支那人的味就恶心的人,当其面对自己父母时也会这么说吗?这种骂或贬低、蔑视态度,就能显得自己高贵,就能实现自己的目的吗?人的高贵不应该表现在理性上的对人的尊重,对他人观点的包容吗(考虑到我们每个人都可能无法完全理解另外一个人或无法完全把握一个事实的前提下)?
另外需要说明的是,支那这个词,原本是中性的,而且用了很久,只是后来被视为是贬义的。支那,原来只是外国对中国的称呼而已,其出处可能有二,一是源于拉丁文表示中国的词语—Sinae(sino)—的音译;二是源于梵文表示中国的词语—Cina—的音译。而Sinae似乎源于当时秦国(Qin,Sin,Zin)的拉丁式写法。只是这个词语后来掺杂民族主义的影响,导致这个词语具有贬低的意味,然而仔细深究。
@耕读博客
📢 频道 ✈️ 群聊 (耕读) 📬 投稿
#AI #信息 #甄别 #审慎
近日AI新闻:人工智能领军人物提醒,人工智能或许会威胁人类安全。
数名OpenAI、谷歌DeepMind现任和前任员工签署公开信警告人工智能存在巨大风险:
1.OpenAI的人工智能系统已经接近人类智能水平,通用人工智能AGI有50%的可能性在2027年就会问世,而不是此前预测的2050年!
2.这封公开信指出,人工智能的发展可能会带来一系列的风险,例如加剧现有社会的不平等、助长操控和虚假信息传播,以及失控的自主人工智能系统可能导致人类灭绝等。
签署公开信的多位OpenAI前任雇员曾从事人工智能安全工作,为公开信背书的业内大佬则有“人工智能教父”Geoffrey Hinton、因开创性AI研究而获得图灵奖的Yoshua Bengio,以及AI安全领域的顶尖专家Stuart Russell。
新闻来源:源1;源2。
📢 频道 ✈️ 群聊 (耕读) 📬 投稿
近日AI新闻:人工智能领军人物提醒,人工智能或许会威胁人类安全。
数名OpenAI、谷歌DeepMind现任和前任员工签署公开信警告人工智能存在巨大风险:
1.OpenAI的人工智能系统已经接近人类智能水平,通用人工智能AGI有50%的可能性在2027年就会问世,而不是此前预测的2050年!
2.这封公开信指出,人工智能的发展可能会带来一系列的风险,例如加剧现有社会的不平等、助长操控和虚假信息传播,以及失控的自主人工智能系统可能导致人类灭绝等。
签署公开信的多位OpenAI前任雇员曾从事人工智能安全工作,为公开信背书的业内大佬则有“人工智能教父”Geoffrey Hinton、因开创性AI研究而获得图灵奖的Yoshua Bengio,以及AI安全领域的顶尖专家Stuart Russell。
新闻来源:源1;源2。
📢 频道 ✈️ 群聊 (耕读) 📬 投稿