当底层价值观和风险偏好不同时……
我发现老公简直就是我分析日常生活逻辑谬误的"宝藏库",日常跟他的交流,感觉随口一说就是一个逻辑谬误,当然我自己也好不到哪里去,但是我会反思,会借助AI改正自己的逻辑谬误,他只会狂妄自大,看不到自身逻辑的盲点,盲目捍卫自己的观点,在错误的道路上越走越远。
论证过程分析
我:公公家用的插座很老了,之前我转发过一篇官方公众号发布的文章,多少年以前的插座要淘汰了,不符合新的国标,有安全隐患,最好换一个。(我承认我表达得非常模糊,因为对于那篇文章的细节我记不得太多了,只是依稀觉得该换插座了。) 老公:有什么问题?能有什么安全隐患?都用了那么多年了,也没发生什么事故。 我:以前没有发生事故不代表未来不会发生,用老旧的不符合国标的插座,比新国标的插座发生事故的概率大一些。 老公:大多少呢?你有没有数据支撑?大1%?还是10%?有没有可能两类插板发生事故的概率都很低?(可能他日常生活中听说谁家里发生插板着火导致的火灾事故很少?所以他觉得发生的概率很小,没什么可担心的?) 我:……(因为我并不掌握真实的数据,所以我没有办法继续对话了。)
顺手把上面的对话发给了Gemini,请它帮我们分析一下对话中的逻辑谬误,AI情绪价值给满,不仅给出了论证中的逻辑漏洞,还给出了我们各自的闪光点,一顿彩虹屁把人夸得心花怒放,还给我上了个价值,从表面这个论证中,提取出了价值层面的讨论。
我的风险预警意识较强,对于生活中发生的事,哪怕是很小的概率,但是如果后果是我无法接受的,我会愿意付出很大的代价,例如买安全座椅,或者为一些更安全的生活用品付出更高的价格等等。对于信息源,我也会仔细甄别,更倾向于用官方的靠谱的信息源,而拒绝一些小众的信息源(例如抖音上的专家等)。另外,我也很愿意将自己的论证过程发给AI,请AI帮助我指出逻辑上的漏洞,更好地改进。我也将老公论证中的归谬错误指出来了:过去没有发生不代表未来不会发生。我需要改进的地方在于我的讨论比较模糊,因为我没有记住更多的细节,所以可能需要查找更多的资料提供更多严谨的论证(例如新版插座到底改进在哪里?两者发生事故的概率是多少?)
老公的逻辑漏洞已经被我指出来了,他的论证也有一定的道理,例如他会问我具体发生事故概率的风险是多少,区别相对风险和绝对风险,可能新版的插座的相对风险提高了不少,但是如果两者的绝对风险都很小,意味着发生事故的概率很小,所以他认为没有必要换新插座。
AI问我:当一件事同时涉及事实判断(概率到底有多大)和价值判断(我们愿意为多大的安全感投入多少成本?)时,你认为哪种判断的讨论应该优先?
对插座的讨论反映出底层价值观和风险偏好不同
上面的讨论反映出我们的价值观和风险偏好是不同的,可能价值判断是优先的,但是我感觉我无法改变达成统一的意见,因为我是一个愿意为安全感付出很大的成本的人,但是他是那种“没有证据证明它危险,就当他安全”的人。举个例子,宝宝一出生我就买了安全座椅,因为我看了视频,意识到哪怕是车速很小的紧急刹车,都可能给宝宝带来危险,但是他的观点从来都是没有必要,可能他的信息来源在于周围很少听说有人因为孩子没坐安全座椅受伤,或者他认为概率很小,所以没有必要坐。所以在价值判断的层面讨论,我有时候会觉得很无力。 他更多的是利用可得性启发来作出决策,使他作出成本投入决策的阈值要比我高很多,一些他认为是小概率的事件,他会觉得没有必要,但是我是一个宁愿为安全感投入较大成本的人,也厌恶风险,哪怕是很小的风险。
如何沟通
AI给了我很好的两个建议。 一是将概率和后果分开讨论,将话题引导到后果的严重性。 他关注的是事情发生的概率,但是我关注的是后果的严重性,我们关注的重点不一样。可能我需要告诉他,当一件事发生的后果是我们无法承受的,例如没有坐安全座椅带来的伤害,那么我宁愿付出一定的我们家庭可以承受的成本去让自己日常出行时更心安。
二是引入情感账户和共同目标。 家是讲感情的地方,所以AI给我的建议是表达自己的感受,例如对于孩子没有坐安全座椅时,我坐在车上那种焦虑、惶恐的感受,以及我们家庭的共同目标,让宝宝健康成长。
总结
感谢AI,这么小的一个讨论,可以帮助我发现我们两个人在价值层面的不同,在风险偏好方面的不同,相当于帮我提升了一个视角去看待这个问题。