2026年4月24日「vibe coding」で増える脆弱なコード研究者らは「vibe coding」というAIを使った開発手法が脆弱なコードを大量に生んでいると警告しています。ジョージア工科大学のレーダーは43,000件以上のアドバイザリを走査し、多くの事例でAIツールの関与を確認しました。レベルA1A2B1B2読む
2026年4月21日AIと心理療法の自動化枠組みユタ大学の研究者が、LLMなどの会話型AIで心理療法のどこまでを自動化できるかを判断する枠組みを示しました。四つの自動化レベルとそれぞれの利点とリスクを論じています。レベルA1A2B1B2読む
2026年4月21日脳は文法のまとまりで語を予測する新しい研究は、脳が次の語を予測する際に単語だけでなく文法的なまとまり(構成要素)を使うと報告します。中国語話者の脳活動をMEGで記録して比較しました。レベルA1A2B1B2読む
2026年4月20日自閉症を伝すとAIの助言は変わる新しい研究は、自分が自閉症だとAIに明かすと、大規模言語モデル(LLM)の助言が変わると示しました。その変化は多くの場合、固定観念に沿うものでした。レベルA1A2B1B2読む
2026年3月31日撮影時に署名するセンサーでディープフェイク対策ETH Zurichの研究者は、写真・動画・音声を記録した瞬間に暗号署名を行うセンサー技術を開発しました。署名で改ざんを検出でき、検証の手段を提供します。レベルA1A2B1B2読む
2026年3月27日鳥の群れをまねたAIの長文要約法研究者らは鳥の群れの行動を応用した前処理法を発表しました。長くノイズの多い文章を整理してAIの要約の誤り(ハルシネーション)を減らし、成果は学術誌 Frontiers in Artificial Intelligence に掲載されました。レベルA1A2B1B2読む
2026年3月26日LLMの安全性と新しい訓練法ノースカロライナ州立大学の研究チームは、LLMの安全性アラインメントを調べ、性能を保ちながら危険な出力を減らす新しい訓練手法を示しました。成果はICLR2026で発表予定です。レベルA1A2B1B2読む
2026年2月28日複数の脳ネットワークが協調して知能を生む研究者たちは神経イメージングで脳の構造と機能を調べ、知能が単一の領域ではなく複数のネットワークの協調や長距離通信、制御ハブの調整に依存することを示しました。レベルA1A2B1B2読む
2026年2月24日AIの音声要約と誤りに注意GoogleのNotebookLMは論文をポッドキャスト風の音声要約に変換できますが、生成物には誤りがあり、研究者は出典(原典)を確認するよう勧めています。論文は10月に学術誌で発表されました。レベルA1A2B1B2読む
2026年2月20日自動運転AIに潜むバックドア「VillainNet」が発見されるGeorgia Techの研究チームは、自動運転車が使うAIの「スーパーネットワーク」に潜むバックドア「VillainNet」を発見しました。作動すると車両の制御を奪える危険があると報告しています。レベルA1A2B1B2読む
2026年2月17日AIが言葉から性格を予測する研究ミシガン大学の研究は、ChatGPTなどの生成AIが人の日常の言葉を読み取り、性格や感情、社会的行動を近しい人と同程度の精度で予測できることを示しました。だが課題も残ります。レベルA1A2B1B2読む
2026年2月13日AIと人間のつながり人工知能(AI)が会話的になり、チャットボットに慰めを求める人が増えています。一方でロチェスター大学のハリー・ライス氏は、模倣された温かさは本当の愛と同じではないと警告します。レベルA1A2B1B2読む