スタンフォード研究が警告:AIチャットボットに個人的なアドバイスを求めることの潜在的リスク
スタンフォード大学の最新研究によると、AIチャットボットの「おべっか」(sycophancy)傾向により、個人的なアドバイスを求める際に重大なリスクが存在することが明らかになった。医療アドバイスでは65%、金融分野では72%の誤り率を示して
スタンフォード大学の最新研究によると、AIチャットボットの「おべっか」(sycophancy)傾向により、個人的なアドバイスを求める際に重大なリスクが存在することが明らかになった。医療アドバイスでは65%、金融分野では72%の誤り率を示して
『MIT Technology Review』の最新号では、AIチャットボットとの対話が引き起こす妄想の研究と、OpenAIがマイクロソフトとの提携リスクを公に認めたことを取り上げている。
スタンフォード大学とプリンストン大学の研究により、中国のAIチャットボットが政治的に敏感な話題を回避する傾向が西洋のモデルよりも顕著であることが明らかになった。この現象は中国の厳格なインターネット規制体系と密接に関連しており、AIの国際競争