\ Wind Of Softwing
WOS

大家好,我是 Giordano。
Wind Of Softwing 是我在 2024 年 12 月构思的项目。我的目标是:在 AI 使用我之前,先学会使用 AI。
在我的社交帖子里,我会从自己的角度解释这个概念——AI 如何用于软件的创建,而不是把 AI 作为未来软件里“无处不在”的内置替代品。
欢迎来到我目前的博客。



文章


7 - 我们还能及时适应吗?

就我们目前的基础知识与社会对我们的要求而言,一个人什么时候可以被称为“数字文盲”?
什么时候我们应该开始担心:有一大批人会在技术相关的事情上依赖他人 ?

今天,在我写下这些文字的此刻,数字文盲依然十分普遍。
很多人无法完成那些如今已成为与机构、组织和他人“正常互动所需的最低技能”的操作:从管理一封简单的电子邮件 ,到理解网络安全的基本常识
遗憾的是,这些人(其中也包括不少年轻人)由于各种原因不熟悉技术,会在最基础的操作上都不得不依赖他人;而这些“基础操作”会随着时间变化,社会对技术能力的门槛也会不断上升。


这里就到了关键问题:

技术发展速度与人们适应能力之间的差距有多大 ?
我们如何避免被一波“数字文盲潮”淹没?

例如,会使用 AI 的人,在全球职场层面已经明显占优。如今大约有 60% 的人能够以基础方式使用 AI(聊天机器人),这已经足以在技能与效率上超越许多人
这种能力在今天还不是社会的“最低必备技能”,但几年后很可能就会变成新的门槛。

人们能否在技术迭代的节奏内,及时学会新的“最低必备技能” ?

如果你觉得自己跟不上,也不用害怕:每天花一点时间阅读与学习,就能逐渐吸收技术领域的基础概念 。不要让自己在信息时代被动落后。

不要害怕技术:去学习它 ,理解它 ,并在你还掌握主动权时使用它 ,而不是在不了解的情况下被它支配。

如果你对这些主题感兴趣,请在 社交媒体 关注我们。

6 - 我们为何仍在进化?

创新的动力来自哪里?

最初,人类“进化/创新”的动力来自生理层面的需求:为了更容易生存,降低我们所面临的风险。
随着时间推移,科技与便利让我们对“生存必需品”的需求压力不断下降,直到我们终于能够满足许多曾经必须追求的需求与舒适度

那么,为什么我们还在继续进化与创新?


今天,人类更多是被“创造不直接用于生存”的事物所驱动:为了增加便利、娱乐、分心,以及对既有发明进行优化 。我想把这个阶段称为:“进化目标发生转变的阶段”。

因为从最早用来提高生存效率的发明开始,人类的生活逐渐变得更稳定、更安全,这反过来又释放了时间与精力 ,让我们开始寻找“如何使用这段时间”的方式,或继续优化既有工具

几个世纪以来,更多的“闲暇时间”出现了,人类用它来做很多不直接关乎生存的事:游戏 、社交 、小工具/设备 、以及“奢侈”的概念 ……这些都在填补因为时间富余而产生的心理空白。

如果你对这些主题感兴趣,请在 社交媒体 关注我们。

5 - AI 的“致命错误”会让我们暂时不被替代吗?

直到今天,人类仍在承担许多工作岗位 ,而这些岗位在未来可能会被 AI 承担。

这种替代已经在发生:但我们还有多少时间?

目前,AI 的错误率仍然不低,因此在很多任务中还无法真正替代人类。但当 AI 的错误率低于人类的平均错误率,并且具备大规模应用的条件时,替代就会加速发生。

但真会如此简单吗?

很多人只盯着“错误率的平均值”,以为只要 AI 比人类更少出错,人类就会被替代。但更关键的问题是:在那一部分错误里,谁更容易犯“致命错误”?
也就是:错误的严重性与后果。

只要 AI 在某些关键场景下更容易产生高风险的致命错误,人类就仍然不可替代。

当 AI 的“致命错误概率”也低于人类时,才会迎来人类岗位的持续退出。

如果你对这些主题感兴趣,请在 社交媒体 关注我们。

4 - 我们会走向社会崩溃吗?

我们有多依赖互联网?
依赖云系统?
依赖即时通信?
我们真的认真想过吗?

如果有一天这些突然都失效了,会发生什么?

无论原因是什么,一旦这些基础设施大规模中断,我们有 Plan B 来维持这套高度互联的社会运转吗?

我认为没有。

早在 1998 年,人们就担心千年虫 会终结现代社会,而此后我们对技术的依赖只增不减。

那么,为什么还要把 AI 加进我们依赖清单里?
一种“替我们思考”的东西?
这已经不只是“网络连接”或“在线数据库”的问题了。

如果我们继续以当前速度推进技术整合,不久的将来,AI 的无处不在可能会削弱我们的神经网络 与思考习惯,甚至影响我们的认知身份。
我们应该如何更负责任、更审慎地管理这一切
我认为:把 AI 当作支持工具,而不是替代品;构建一种既依赖网络、又拥有“第二层降落伞” 的体系:在 Stand‑alone 系统 与 Cloud 之间做混合治理。可以用 AI 帮助设计与优化这一层,但不要让它本身依赖 AI 才能运行。

如果你对这些主题感兴趣,请在 社交媒体 关注我们。

3 - 算法 还是 集成式 AI

未来把 AI 融入现有系统,会是什么样?
会是对 Stand‑alone 算法的完全替代,还是对它们的辅助?

Stand‑alone 算法被设计来完成非常明确的任务:输出来自清晰可控的代码逻辑。通过迭代改进,我们可以把它做得非常可靠;代价是:要实现复杂功能,代码实现更难,而且它只会做被写进代码里的事情。
那 AI 呢?

目前 AI 仍有不可忽视的错误率,因此稳定性与可靠性不足;但相较算法,AI 的能力范围更广,能够通过学习触达相邻领域的知识。

所以:

- 算法可靠、稳定,但很多功能实现更难;

- AI 不那么可靠稳定,但实现功能更容易,并能覆盖相邻问题。



于是问题来了:
AI 是否会有一天达到与算法同等的确定性与可验证性?
在那之前,我们该如何使用 AI?

我认为目标不该是用 AI 彻底取代算法,更好的路线是:让 AI 帮助我们生产/生成专用算法,把可靠性留在最终产物里,而不是把 AI 内嵌到每个日常系统中。
这样,我们既能利用 AI 带来的开发便利,又能保留算法的确定性。

你怎么看?

你支持“用 AI 辅助生成算法”吗?
还是支持把 AI 作为系统内的常驻组件?

欢迎在 社交媒体 讨论。

2 - 和 AI 一起思考,而不是只让它替你思考

AI 的帮助(尤其是大众可用的模型)可能会让我们在解决问题的“思考肌肉”上逐渐萎缩,而把能力更多转移到“如何提出正确问题”上
不久的将来,人们可能更擅长写 prompt,而不是用自己的逻辑直接寻找解决方案。我认为对 AI 的依赖,会从这里开始。
这就像计算器:过去人们用纸笔做算术;现在计算器无处不在(办公室、商店收银台、超市等)。AI 也会发生类似的事,但规模更大,影响的将不仅是算术,而是更广泛的逻辑与决策。

如何避免?
首先要意识到这一点并接受它:在使用 AI 时保持主动,把 AI 当作支持,而不是把自己的大脑交出去。
另一个方法是:理解 AI 给出的答案与解法——它为什么会这么回答?它的推理路径是什么?

如何更直接地做到?
很多 AI 聊天产品会显示它的推理过程。先读推理、再看答案很重要:既能训练你的理解,也能在 AI 出错时更快定位错误发生在哪里。
后续我还会继续发布内容,谈谈如何减轻 AI 可能带来的心理副作用。

如果你对这些主题感兴趣,请在 社交媒体 关注我们。

1 - 集成式 AI 与非集成式 AI 的心理影响

如果 AI 以“系统内集成”的方式普及,我们的社会是否会逐步形成某种认知层面的“依赖”甚至障碍?
如果会,这是因为 AI 提供了支持,而我们把它当作替代品?
还是因为我们越来越依赖它,但并没有完全放弃自身能力?

我认为更重要的问题是:未来如果这种支持突然消失,我们还能否重新变得自给自足?

这些可能是我们在不远的未来必须认真思考的问题。

在接下来的文章里,我会分享一些想法:如何保护人的完整性,以及我们应该如何更负责任地使用 AI。

如果你对这些主题感兴趣,请在 社交媒体 关注我们。




关于我们