这个人工智能周期有时既令人惊叹又非常令人沮丧。 我问了250位创始人,他们认为在这个人工智能的时刻最烦人的是什么。 他们的回答是: 1. 噪音太多 – "外面有太多信息,很难评估质量与垃圾。" 2. 过度承诺 – "炒作的程度让人很难理解什么是真正有用的。" 3. 过载 – "事情太多了;很难跟上,也很难知道该押注什么,还是等到下一个迭代。" 4. AI为AI – "我们需要一个能够评估其他AI工具以解决你所面临问题的AI,并告诉你最佳解决方案。" 5. 一刀切的思维 – "我讨厌把人工智能讨论成一个单一的事物。" 6. 自我造成的干扰 – "我现在有能力做更多的事情,但我的注意力却分散得很。" 7. 隐私和安全风险 – "最近ChatGPT的API密钥和PR数据泄露暴露了生态系统的脆弱性。" 8. AI驱动的诈骗和欺诈 – "AI驱动的诈骗、冒充和欺诈的增加……只会变得更糟。" 9. 忽视基础 – "每个人都在追逐下一个闪亮的东西,但没有人修复基础。" 10. 伦理与速度 – "大型AI实验室谈论伦理和安全,但却在竞相推出新模型。" 11. AI眩晕 – "关于‘整个AI营销团队’的帖子即使是虚构的也会让人感到FOMO。" 12. 演示与现实的差距 – "创建演示与将AI整合到业务中之间存在很大差距。" 13. 银弹错觉 – "许多人认为AI将是银弹,但他们的策略建立在薄弱的基础上。" 14. 快速变化的速度 – "令人兴奋,但感觉像是从消防栓喝水并在沙子上建造。" 15. 工具过载 – "跟上各种不同工具的数量并尝试它们。" 16. 表面应用 – "大多数AI应用都是新奇的,几乎没有解决核心问题。" 17. 隐藏成本 – "AI代理通常需要很多重复调用,导致成本超过人工劳动。" 18. 教育滞后 – "学校没有为不可识别的未来就业市场做出调整。" 19. 不确定的输出 – "大型语言模型是不可预测的;交付生产就绪的系统很难。" 20. 忽视延迟 – "很少有模型优先考虑低延迟;大多数都没有准备好投入生产。" 21. 提示学习曲线 – "学习与大型语言模型对话比我想象的要难——有时就像和青少年交谈。" 22. 炒作与现实的差距 – "市场营销远远领先于技术能够可靠交付的内容。" 23. 上下文工程的头痛 – "上下文工程是开发良好AI产品最重要,同时也是最令人沮丧的方面。" 24. 最后一公里质量问题 – "编码AI可以表现得像高级工程师,但10-20%的时间会偏离轨道——自信地。" 25. 对错误答案的过度自信 – "我的高级AI审查员随机更改了一个文件,将‘if false && …’添加到‘修复’某些东西中。" 26. 不完整的解决方案 – "就像一个实习生:80%完成,然后你修复和优化。" 27. 随着复杂性下降的性能 – "随着项目变得更加复杂,除非以模块化方式构建,否则它会崩溃。" 28. 缺乏高级AI人才 – "很难找到将远见战略与深厚技术能力结合在一起的人。" 29. 不一致的代码可靠性 – "我们距离AI让初级工程师像高级工程师一样编码还很远。" 30. 工具碎片化 – "我们必须用胶带把太多AI工具粘在一起,以获得可靠的工作流程。" 31. 快速过时 – "一旦我们确定了AI堆栈,一个新模型就迫使我们重新思考。" 32. 领域特定准确性差 – "即使有很多上下文,通用模型在小众知识上也很挣扎。" 33. 幻觉风险 – "没有人工审查,你无法完全信任输出,这会扼杀速度提升。" 34. 推理深度有限 – "它在多步骤推理中挣扎,每一步都建立在前一步之上。" 35. 上下文窗口限制 – "我们达到了令牌限制,在任务中丢失了重要上下文。" 36. 昂贵的实验 – "大规模测试新模型的成本迅速增加,尤其是当大多数模型没有成功时。" 37. 集成痛苦 – "让AI工具与我们现有系统良好配合比应该的要困难。" 38. 不一致的API稳定性 – "有一天API工作得很好,第二天却抛出随机错误。" 39. 浅层个性化 – "AI个性化到表面特征,但错过了更深层的行为模式。" 40. 企业采用缓慢 – "说服大型客户信任AI驱动的流程仍然是一个艰巨的任务。" 41. 过度依赖的诱惑 – "团队很容易变得懒惰,盲目相信AI输出。" 42. 合规性不确定 – "法规是一个不断变化的目标,使长期的AI规划变得棘手。" 43. 市场噪音太多 – "每天都有新的工具声称能解决一切——大多数都是虚构的。" 44. 陡峭的学习曲线 – "这些工具功能强大但不直观——培训团队是一项艰巨的任务。" 45. 实时使用案例中的延迟 – "即使是轻微的延迟也会破坏AI驱动交互的用户体验。"
13K