AI/LLM 最危險的部分是它們告訴你你想聽的話。
308