我们上线了 ONES.ai,当然我们用了公开的 LLM(AI),目前我们最方便使用的就是公开的 LLM,其实是不是 公开的 LLM 也不重要,在未来可预见的时间内,总会有一个最好的 LLM(AI) 让我们用。综合效果,性能,价格,选出那个最合适的,这不是什么难题。LLM(AI) 对我们这种应用方来说极其重要,它是应用中智能的灵魂。但它又没那么重要,随时可以被替换。这种感觉很诡异,会让所有应用都失焦,我们到底应该关注什么?我们的价值底线在哪里?对话式交互就可以完成所有任务吗?是否加了 AI 就万事大吉?就是领先?
我们习惯了自己工作,习惯了和人类工作。就在过去几个月内,我们学会了使用 AI 写文章、画图,习惯了自己和 AI 工作。但是我们是否想过,我们准备好团队和 AI 一起工作了吗?目前我们习惯的 AI 工具,都是为个人服务,只关注一对一的 Prompt 和反馈,AI 是对一个人工作能力的增强。如果在一个原有很多人类工作的系统中引入 AI,我们怎么评价工作质量?人类之间的关系是否有变化?人类和 AI 之前的关系是什么?不同的人驱动的 AI 之间的关系是什么?如果这些问题不被清晰地定义和解决,我们就无法定义工作,无法定义工作中的同伴,甚至无法定义工作中的自己。
一、ONES 如何定义和看待系统中的“信息”?
经典的软件系统本质上是一堆信息的集合,人类通过和系统的信息交互,达到人与人的信息交互的目的。一种虚拟的协作就此产生,典型的复杂 SaaS 软件都是多角色的。为了达到协作目的,我们通常会标注信息的来源,也就是是谁产生的信息。信息生产者和加工者需要被标注出来。所以系统中“信息”的隐含意义是“某个人产生的信息”。产生信息的人类是主体,信息以客体出现。在协作软件中,没有人类主体的信息客体是不完备,不可信的。
二、我们需要区分系统中由 AI 生成的“信息”吗?
如果人类的信息需要被区分,那么 AI 生成的信息是否需要区分呢?大概会以以下三种方式处理。
一种是不区分,将这个信息直接赋予给输入 Prompt 的人类,不显示 AI 参与的过程,这里的好处是系统简洁,AI 藏在后面帮助人类。这是目前大部分协作软件系统的做法,但是这里面的一个非常严重的问题是,无法衡量人类和 AI 的工作内容质量。当系统中充斥大量信息的时候,我们无法分辨哪些是 AI 生成,哪些是人类同伴生成。我们会抱着投机的心态去请 AI 帮忙产生信息完成工作,又会抱着怀疑的心态对待系统中的其他信息。一个典型的例子就是,X 通过 Prompt 给 AI 产生一篇长篇大论,发布到系统中。然后 Y 因为默认系统中大量充斥 AI 生成的内容,对信息来源不信任,请 AI 帮忙对文章生成摘要以节省阅读时间。信任是协作的基石,这种不区分的做法破坏了信任,使得引入 AI 功能得不偿失。
另一种是直接标注那些由 AI 生成的信息,系统中就是很多人类和一个 AI,我们可以知道哪些是人类生成的信息,哪些是 AI 生成的信息。这种区分方法的问题是,由谁来承担 AI 生成信息的责任?一方面 LLM(AI) 的幻觉问题一直存在,就算没有幻觉,我们也很难保证 AI 的信息绝对正确。出错的信息由谁来承担?由谁来驱动修正?典型的 SaaS 软件都是生产工具,承担了企业的生产经营责任,一旦充斥无人担责的信息,就是塑造了一个没有责任的社群,系统再次崩塌。
最后一种是我们将人类个体驱动 AI 生成的信息标注为人类+AI 一起生成,一个典型的例子就是,X 驱动 AI 生成的信息将被标注为:“由 X 的 Copilot 生成”。AI 仍旧会帮助 X 工作提效。而生成的信息会在系统中透明地公布给所有信息消费者。一旦出错,X 负有全部责任。因为有了责任的归属,信任也就依旧存在,系统将得益于 AI 的参与。
三、AI 是否需要一个身份?
那么系统中的 AI 将会人格化为某个个体的 AI,目前最通行的叫法就是某个人的 Copilot。系统中的每个人类用户都将有其独一无二的 Copilot。这将类似工作中导师和实习生的关系。每个人类都是导师,而他的 Copilot 实习生将会帮他完成日常的繁琐工作,Copilot 实习生的数据范围和权限受限于人类导师的数据范围和权限。Copilot 实习生产生的信息将需要其人类导师确认和批准发布并由人类导师承担所有责任。
至此,AI 有了在系统中的明确身份,每个人类个体都在系统中拥有自己的署名的 Copilot。
四、我们该如何在系统中表达对 AI 的尊重?
AI 可以是 X 的一个实习生,AI 没有 X 懂他的公司,他的工作,在他的领域内的数据集里面 AI 不如他,但是很遗憾,就像之前只有人类参与的工作中一样,实习生有很大的可能性在很多方面强于他的导师。只是在这个工作环境内,AI 必须作为实习生出现。但是我们要心里知道,实习生的能力远不仅此。我们需要正视工作中不同角色的参与者在不同方面的优劣。在有 AI 参与的系统中,重新组合我们的工作流程,从心里面尊重人类驱动 AI 产生的信息,尊重使用 AI 产生信息的同事,尊重消费你用 AI 产生的内容的同事,尊重自己,尊重 AI。
信息来源的区分,AI 身份的明确,其目的是创造一个有责任的,有信任的系统,有了这些,一切都将透明化,系统中也就会有尊重。
六、ONES.ai 的设计哲学是什么?
A: 我们创造一个人类和 AI 一起工作的系统,每个人都有一个独一无二的 Copilot
B: Copilot 产生的信息可被跟踪
C: Copilot 在系统中的数据范围受限于驱动 Copilot 的人类用户
D: 人类用户需要为其驱动的 Copilot 产生的内容负责
E: 系统未来可以容纳自我负责的 AI Autopilot 角色参与
我们基于以上的设计哲学,在 ONES.ai 的初代版本中上线了以下几个功能。
- 人类用户驱动其 Copilot 参与 ONES Wiki 的信息生成
- 人类用户与 Copilot 对 ONES Wiki 的信息进行自然语言问答检索
3. 人类用户驱动其 Copilot 生成 ONES Project 中的任务
这些类似功能可能在过去几个月的各类 AI Hackathon 里面出现过,并不稀奇。而 ONES.ai 的真正价值是我们对 AI 参与的复杂系统的问题定义。未来会有更多的 AI 相关功能上线,或者说我们将会赋予 ONES 中人类的 Copilot 更多能力。
ONES 是专注于软件研发管理的平台,我们将把对软件管理的理解和以上对 AI 的理解整合到一起。在过去8年,我们创造了一个专业系统来帮助人类进行更快更好的软件生产。从今以后,我们将打造一个人类和 AI 一起工作的软件研发项目管理平台。这将是真正的新一代。
https://ONES.ai 是所有功能的试用平台,欢迎加入 Waitlist,我们将逐步开放试用。