随着人工智能技术的飞速发展,GPT(生成预训练Transformer)等自然语言处理模型已成为我们日常生活中不可或缺的一部分。它们能够为我们提供快速、便捷的答案,解决各种问题。然而,当我们依赖这些技术时,一个核心问题逐渐浮现:GPT能否真正的客观、中立、公正地回答问题吗?另外,随着时间的流逝和客观条件的改变,问题的答案是否也在变化更新中呢?
GPT作为一个基于大量数据训练的模型,其回答的基础是这些数据。这意味着,如果这些数据本身是客观的、真实的,那么GPT的回答在很大程度上也会是客观的。然而,数据的收集和选择往往受到多种因素的影响,如数据来源、采集方法、筛选标准、数据产权、著作权和国家安全等。因此,尽管GPT试图从数据中提取信息,但其回答仍然可能受到数据本身的主观性、偏见和意识形态的影响。虽说GPT的回答是基于其学到的语言规则和知识,它并没有明确的立场或偏好,可由于训练数据的多样性,GPT可能会受到某些群体或文化的影响,加上其收集的文本与信息数据可能还不全面、彻底,从而在回答中表现出某种程度的偏向性。此外,对于涉及伦理、政治等复杂问题,GPT可能难以完全保持中立,因为这些问题本身就充满了争议和不同的观点,存在一些局限性......
但随着人工智能技术的进一步发展,共同价值观和人类命运共同体的逐步形成,我们有望看到更加成熟、更加完善的全球统一GPT大数据模型。这些大模型平台将能够更好地处理复杂问题,更加客观、中立、公正地为我们人类提供答案(药方)。由此推断,若GPT能客观、中立、公正地回答《共绘网》的话题(议题)并传播到全球,您觉得世界梦、世界大同和人类命运共同体是否会早日到来呢?对此,“愿中国青年都摆脱冷气,只是向上走。有一份光,发一份热。就令萤火一般,也可以在黑暗里发一点光。不必等候炬火!”尽自己的一份力、发出自己的一点声音。
一共有人参与 条评论
谈《共绘网》的哲学开始为科学服务。实质上,在大语言模型(LLM)出现之后,分析哲学、后现代的解构主义们与LLM形成了很深入的关系,甚至是共生关系,分析哲学为 LLM 提供了概念和逻辑基础,而 LLM 为分析哲学提供了新的工具和见解来研究语言和推理。这种相互影响促进了这两个领域的进步。 还记得维特根斯坦的那句名言“语言的边界就是世界的边界”吗?而LLM又直接介入很多领域的研发,比如,生物医药、化学等很多领域,所以,这种实用性就是极为直接的了,从哲学对现实的软影响开始直接变成硬干预。 经过分析哲学、解构主义的努力,随着大语言模型的问世,《共绘网》的哲学离应用已经从间接变成了直接。 如果你有机会采访openAI的首席科学家Ilya,若你说哲学与chatGPT没有关系,估计他会被你的无知惹恼吧。 世界上根本就不可能存在真正意义上的“无用之学”,这里的「无用」只是一个语言问题。大抵可以这样理解:所谓「有用」往往是指能否直接实用,「无用」则是指非直接实用。以上,是《共绘网》的哲学对「系统世界」的实用性......
为何要读《共绘网》(www.gonghuiwang.cn)?因这里有你要的答案,其如春风吹散阴霾,治愈了世界,趁大好时光,读一读(它的文字)吧!大到预测未来、宇宙规律,小到为人处事、人生智慧等等,帮助人们解决思想上的许多困惑……其中的哲理跨越时间,令人终身受用。