我们已经推出了AI,当然我们用的是公共LLM(AI),目前我们用得最方便的就是公共LLM,其实不管是不是公开LLM,在可预见的未来,总会有最好的LLM(AI)供我们使用。 综合效果、性能,**选择最合适的一款,这不是问题。 LLM(AI)对于像我们这样的应用来说极为重要,它是应用中智能的灵魂。 但它并不那么重要,可以随时更换。 这是一种奇怪的感觉,使所有应用程序都失去了焦点,那么我们究竟应该关注什么呢?我们的价值底线在于对话式互动能做到这一切吗?添加 AI 可以吗?它领先吗?
我们习惯于自己工作,也习惯于与人类合作。 仅在过去的几个月里,我们就学会了使用人工智能来写文章、画画,并习惯了自己使用人工智能。 但是,我们是否想过,我们准备好让团队和人工智能一起工作了吗?目前,我们习惯的AI工具都是针对个人的,只注重一对一的提示和反馈,而AI是对一个人工作能力的增强。 如果你在一个原本有大量人工工作的系统中引入人工智能我们如何评估我们的工作质量?人与人之间的关系有变化吗?以前人类和人工智能是什么关系?不同的人驱动型人工智能之间有什么关系?如果这些问题没有得到明确的定义和解决,我们就无法定义工作、工作中的同事,甚至无法定义工作中的我们自己。
经典软件系统本质上是信息的集合,人类可以通过与系统的信息交互来达到人与人之间信息交互的目的。 其结果是一种虚拟协作,典型的复杂SaaS软件是多角色的。 出于协作目的,我们通常会标记信息,即谁生成了信息。 信息生产者和处理者需要贴上标签。 因此,“信息”在系统中的隐含含义是“某人产生的信息”。 产生信息的人是主体,信息以客体的形式出现。 在协作软件中,没有人类主体的信息对象是不完整的,不可信。
如果人类信息需要区分,那么人工智能生成的信息是否需要区分?它将以三种方式处理。
一是不要区分将这些信息直接提供给输入提示的人,而不是显示AI参与的过程,这里的好处是系统简洁,AI躲在后面帮助人类。 这是当今大多数协作软件系统的做法,但一个非常严重的问题是,没有办法衡量人类和人工智能所做的事情的质量。 当一个系统充斥着信息时,我们无法分辨哪些是由人工智能生成的,哪些是由人类同伴生成的。 我们会投机取巧地要求人工智能帮助生成信息以完成工作,我们将对系统中的其他信息持怀疑态度。 一个典型的例子是,X 使用提示生成一个长故事,供 AI 发布到系统。 然后 y 不信任这些信息,因为默认系统充斥着 AI 生成的内容,并要求 AI 帮助生成文章摘要以节省阅读时间。 信任是协作的基石,这种不分青红皂白的方法破坏了这种信任,并使引入人工智能功能的成本更高。
另一种是直接对AI生成的信息进行标注,系统中有很多人,一个AI,这样我们就可以知道哪些信息是人类生成的,哪些是AI生成的。 这种区别的问题是,谁对人工智能生成的信息负责?一方面,LLM(AI)的幻觉一直存在,即使没有幻觉,也很难保证AI的信息绝对正确。 谁对错误的信息负责?谁推动了更正?典型的SaaS软件是承担企业生产经营责任的生产工具当没有对信息负责时,它就会创造一个没有问责制的社区,系统再次崩溃。
最后,我们将由个体人类驱动的AI生成的信息标记为人类+AI一起生成,一个典型的例子是,X驱动的AI生成的信息将被标记为:“X的副驾驶生成”。 人工智能仍将帮助X更有效地工作。 生成的信息在系统中透明地发布给所有信息使用者。 如果出现错误,X将承担全部责任。 因为有问责制,信任仍然存在,系统受益于人工智能的参与。
然后系统中的AI将被拟人化为个人的AI,目前最常见的名称是某人的副驾驶。 系统中的每个人类用户都将有自己独特的副驾驶。 这类似于导师和实习生之间的关系。 每个人都是导师,他的副驾驶实习生会帮助他完成日常繁琐的工作,副驾驶实习生的数据范围和权限受到人类导师的数据范围和权限的限制。 Copilot 实习生制作人的信息需要得到其人类导师的确认和批准才能发布,所有责任均由人类导师承担。
此时,AI在系统中具有明确的身份,每个人类个体在系统中都有自己的签名Copilot。
AI 可以是 X 的实习生,AI 不了解他的公司、他的工作,AI 在他领域的数据集中不如他,但不幸的是,就像以前只有人类参与的工作一样,实习生很有可能在很多方面都比他的导师更好。 只是在这种工作环境中,人工智能必须以实习生的身份出现。 但我们心里需要知道,实习生的能力远不止于此。 我们需要正视在工作中扮演不同角色的参与者的长处和短处。 在人工智能参与的系统中,重新组装我们的工作流程发自内心地尊重人类驱动的AI生成的信息,尊重使用AI生成信息的同事,尊重消费你用AI生成的内容的同事,尊重自己,尊重AI。
区分信息**和人工智能身份清晰的目的是创建一个责任和信任的系统,有了这个系统,一切都将是透明的,系统中将有尊重。
如果我们区分人工智能的作用,并且需要所有流程的透明度。 系统软件本身的意义依然存在,在AI介入之前,系统软件描述的是人类在某个领域的协作工作流程。 有了人工智能,工作流程将被重构,系统将被加速,凭借当今的LLM(AI)能力和稳定性,以及人类角色在大多数系统中的重要性,人工智能目前以Copilot的身份出现,这意味着需要一位人类导师在系统中跟随。 未来可以预期某些领域的能力,人工智能很有可能独立完成其工作。 这与民用飞机的自动驾驶非常相似,当系统中的部分工作有了自动驾驶的可能时,系统工作流程将再次重建,系统软件将继续发挥其价值。 我坚信这一天很快就会到来。
a:我们创建了一个人类和人工智能一起工作的系统,每个人都有一个独一无二的副驾驶
B:Copilot生成的信息可以被跟踪。
C:系统中的数据范围受驾驶 Copilot 的人类用户的限制。
d:人类用户对他们为 Copilot 驱动的内容负责。
E:未来系统可以容纳自负重的AI自动驾驶角色的参与。
我们基于上述设计理念,在ONESAI 的第一个版本包括以下功能。
1.人类用户驱动他们的副驾驶参与 ONES wiki 的信息生成
2.人类用户与 Copilot 合作,对 ONES wiki 中的信息进行自然语言问答检索
3.人类用户驱动他们的副驾驶在 ONES 项目中生成任务
在过去的几个月里,这些类似的功能可能出现在各种人工智能黑客马拉松中,这种情况并不少见。 和人工智能的真正价值在于我们对涉及人工智能的复杂系统的问题定义。 未来,我们将推出更多与AI相关的功能,或者我们将在ONES中为人类Copilot提供更多功能。
ONES是一个专注于软件开发管理的平台,我们将把对软件管理的理解与上述对AI的理解结合起来。 在过去的 8 年里,我们创建了一个专业的系统来帮助人类生产更快更好的软件。 从现在开始,我们将建立一个人类和人工智能一起工作的软件开发项目管理平台。 这将是真正的新一代。