2026년 4월 24일연구진, 'vibe coding'으로 배포되는 취약한 코드 경고연구진은 생성형 인공지능 도구가 취약한 코드를 만드는 사례를 다수 발견했다고 경고했다. 조지아공대 SSLab의 Vibe Security Radar는 공개 취약점 데이터를 스캔해 AI 서명이 있는 코드를 표시했다.레벨A1A2B1B2읽기
2026년 4월 21일치료에 쓰이는 인공지능의 자동화 수준 프레임유타 대학교 연구진이 치료 업무에서 인공지능(LLM)이 어느 정도 자동화될 수 있는지 평가하는 틀을 제시했습니다. 연구진은 네 가지 범주로 나누고 유용성과 위험을 검토했습니다.레벨A1A2B1B2읽기
2026년 4월 21일뇌는 다음 단어보다 문법 단위를 예측합니다네이처 신경과학 연구는 인간의 뇌가 단순히 다음 단어만 예측하는 것이 아니라 문법적 단위(구)를 기준으로 단어를 기대한다고 밝혔습니다. 연구는 MEG 기록과 행동 검사로 이 차이를 비교했습니다.레벨A1A2B1B2읽기
2026년 4월 20일자폐를 밝히면 AI 조언이 바뀐다연구는 사람들이 자신의 자폐 정체성을 밝히면 대형 언어 모델의 일상적 조언이 고정관념에 맞춰 바뀐다고 밝혔다. 연구진은 사용자 통제와 투명한 시스템을 개발할 것을 제안했다.레벨A1A2B1B2읽기
2026년 3월 31일캡처 순간 서명하는 센서로 딥페이크 판별연구진이 사진·영상·음성을 촬영 순간에 암호학적으로 서명하는 센서 칩을 개발했습니다. 이 서명으로 출처와 촬영 시간을 확인하고 이후의 조작 여부를 검증할 수 있습니다.레벨A1A2B1B2읽기
2026년 3월 27일새 떼 원리로 인공지능 요약 오류 줄이기연구진은 조류의 떼 움직임 원리를 응용한 전처리 틀을 제안했습니다. 이 틀은 문장을 정리하고 군집화해 대형 언어 모델(LLM)의 환각을 줄인 요약을 만들도록 돕습니다.레벨A1A2B1B2읽기
2026년 3월 26일대형 언어 모델의 안전 정렬 연구노스캐롤라이나 주립대학교 연구진이 대형 언어 모델(LLM)의 안전 정렬 방식을 분석하고, 성능을 유지하면서도 위험한 출력을 줄이는 새로운 훈련 기법을 실험했습니다. 연구 결과와 관련 코드가 공개될 예정입니다.레벨A1A2B1B2읽기
2026년 2월 28일뇌 네트워크와 일반 지능연구자들은 신경영상으로 뇌 조직 방식을 분석하고, 여러 뇌 네트워크의 조정과 통합이 일반 지능을 만든다는 증거를 제시했습니다. 연구는 두 개의 독립적 성인 데이터세트를 사용했습니다.레벨A1A2B1B2읽기
2026년 2월 24일AI 오디오 요약의 장점과 한계구글의 NotebookLM은 연구 논문을 팟캐스트형 오디오 개요로 바꾸어 이해를 돕는다. 연구자들은 흥미로운 표현을 발견했지만 반복되는 오류와 과대해석이 있어 원문 확인을 권했다.레벨A1A2B1B2읽기
2026년 2월 20일자율주행차 취약점 'VillainNet' 발견Georgia Tech 연구팀이 자율주행차 AI의 '슈퍼 네트워크'에 숨은 백도어 VillainNet을 발견했습니다. 활성화되면 차량 제어를 빼앗아 승객을 위협하거나 사고를 일으킬 수 있다고 경고했습니다.레벨A1A2B1B2읽기
2026년 2월 17일AI가 사람 성격과 감정을 예측한다연구는 ChatGPT, Claude, LLaMa 같은 생성형 AI가 사람들의 언어를 읽고 성격, 일상적 감정, 스트레스 등 실제 삶의 특징을 예측할 수 있음을 보여준다. 일부 경우 AI가 친구 평가보다 더 정확했다.레벨A1A2B1B2읽기
2026년 2월 13일AI가 사랑과 인간적 연결을 바꾸다인공지능의 대화 능력이 향상되면서 일부 사람들은 챗봇에서 위로를 찾습니다. 연구자들은 챗봇이 단기적 위안을 줄 수는 있지만 진짜 사랑과 상호적 관계를 대체하지는 못한다고 말합니다.레벨A1A2B1B2읽기