临时搭起的直播场地已经布置完毕。背景是公司Logo和“AI就业宝2。0算法公开课”的字样。三台摄像机从不同角度对准主讲台,灯光调试完毕。
台下坐着二十多家媒体的记者,长枪短炮架了一排。还有十几位被邀请的用户代表,有些紧张地坐在前排。
林辰在后台最后检查演示系统。
屏幕上,AI就业宝的后台界面已经打开,左侧是简历库(所有信息已脱敏),右侧是岗位库,中间是算法匹配过程的可视化区域——这是系统刚提供的模块,能将复杂的神经网络决策过程,转化成直观的流程图和权重图。
“林总,还有三分钟。”杨雪走过来,低声说,“微博话题阅读量已经破亿了,直播间预约人数……超过八百万。”
她声音有点抖。
八百万实时观看,这压力太大了。万一出一点纰漏,就是灾难性的。
“放心。”林辰整理了一下西装领口,“按计划来。”
一点五十九分,他走上主讲台。
灯光打在他身上,有些刺眼。台下所有镜头对准他,快门声咔咔响起。
林辰对着镜头笑了笑。
“各位下午好,我是林辰,未来科技的创始人。”他开口,声音通过麦克风传遍全场,平静而沉稳,“今天请各位来,是想做一件行业内很少有人做的事——公开我们的算法。”
他转身指向大屏幕。
“AI就业宝的核心,是一套基于深度学习的智能匹配算法。过去二十四小时,它帮一百多万人找到了工作机会,但也收到了一些质疑。所以今天,我把它拆开来,给大家看看。”
他点击鼠标,屏幕切换。
“首先,算法歧视问题。”林辰调出一个流程图,“我们的算法在训练之初,就加入了严格的公平性约束。性别、年龄、地域、学历——这些因素在匹配中的权重被限制在5%以下。真正影响匹配结果的,是技能匹配度、项目经验、职业偏好这些客观指标。”
他现场随机抽取一份简历。
“比如这位‘用户A’,32岁,女性,本科,五年产品经理经验。我们看看系统会给她推荐什么岗位。”
简历信息输入,算法开始运行。
大屏幕上,可视化模块启动。所有人都能看到,算法先识别出简历中的关键词:“产品设计”“用户调研”“数据分析”“项目管理”……然后去岗位库中寻找包含这些关键词的职位。
匹配过程被分解成十几个步骤,每一步的决策依据、权重分配都清清楚楚。
最终,系统推荐了三个岗位:某互联网公司的产品总监(匹配度92%)、某创业公司的产品负责人(匹配度88%)、某工厂的高级产品经理(匹配度85%)。
“为什么是这三个?”林辰点开详细解释。
屏幕上弹出分析报告:岗位A要求五年以上经验,用户A符合;岗位B要求有从0到1的产品经验,用户A的第三段工作经历匹配;岗位C要求熟悉数据驱动,用户A的项目经历中有相关描述。
每一个判断都有依据,每一个推荐都有理由。
台下开始有记者点头。
“接下来,我们看数据安全问题。”林辰切换界面,“所有用户数据,我们都采用端到端加密。简历信息在本地完成脱敏处理后,才上传到服务器。服务器存储的数据,是经过加密的哈希值,即使泄露,也无法还原成原始简历。”
他调出系统日志,展示数据流转的全过程。
“更重要的是,用户随时可以一键删除所有数据。删除后,服务器上的加密数据会在24小时内彻底销毁,不可恢复。”
这时,台下一位记者举手:“林总,我是财经周刊的记者。您刚才的演示很精彩,但我有一个问题:算法毕竟是黑箱,您如何保证它不会在训练过程中,无意间学习到人类的偏见?”
这个问题很刁钻。
所有人都看向林辰。
林辰沉默了两秒,然后笑了。
“问得好。”他说,“所以我们在算法之外,加了三道人工审核机制。第一道,训练数据清洗——所有用于训练的数据,都会经过人工审核,剔除可能包含偏见的样本。第二道,输出结果抽样——每天随机抽取1%的推荐结果,由人工复核。第三道,用户反馈闭环——任何用户对推荐结果有异议,都可以申诉,申诉会触发人工介入。”
他顿了顿。
“技术应该有温度,算法应该有底线。这是未来科技做所有产品的第一原则。”