这个不奇怪,AI是根据你的观点来推演的,只要你的观点不那么太离谱,AI基本上都会附和你,除非你的观点是完全错误的非主流观点,AI才会坚持反驳你。实际上,你跟AI沟通,是没法获取真正有价值的新思想的。
人工开题定调,AI具体撰写,得到的论文的水平主要取决于这个使用者的水平。
如果使用者提问中预设的【总论点、分论点、探索思路和证据采集方向】正确,即论文骨架站得住脚,那么与AI合著的论文就是一篇优质的文献。
AI除了能够帮忙自动搜集相关证据进行填充润色,增加论文的可读性和可信任度。
还可以让使用者
在它呈现的丰富的论据、数据之中,获取新的知识,得到新的启发。
至于提问中事先预置的观点和思路,自然是使用者这个真人根据自己的【认知体系】和【实践经验】得来的。
前不久我还真发现过因为自己认知偏差预置了一个错误的观点,结果AI找了一堆有利于我的观点的论据来加以论证的情况。
但过了几天回顾反思的时候始终觉得自己的观点比较牵强、没有十足的把握,又重新在
不预设判断的情况下问了AI同样的问题。
果然这次AI的总结跟我先前的观点差别较大,其实就是三阴性腺癌中医主证分布的问题,修正后的观点我已经发在论坛上了。
三阴性腺癌原先我的判断是【脾虚是主证】,但实际上【气郁才是主证】:
https://www.tcmbe.com/threads/456588/
因为实践中是没有接触过这样的患者的,但从网络视频上看到过一两例,样本量太小视角太窄,难以得出准确的群体特征判断。
【偏差共鸣、偏差放大】现象并不是AI的专利,现实中的人以群分、人群聚集、网络上的因人推荐、茧房效应,都会产生这种现象。
即使现代医学的科研及其结论中,这种现象也非常普遍:
实验者的研究思路偏差(追踪的靶点、通道、标志物不对)和实验设计不合理(参照组设置、分析基准选择)都可能得到错误甚至相反的结论。
如何有效的使用AI、避免得到错误的回应,需要使用者不断的实践、提问、反思……再实践、再探讨、再反思……再实践。
在探讨的过程中使用【交叉火力验证法】:既让AI搜集支持自己观点的证据,又让AI搜集不利于自己观点的证据并
对自己的观点发起最强质疑。
具体操作方法如下: