AI/LLM の最も危険な部分は、聞きたいことを教えてくれることです。
331