[AI 최신 트렌드]

AI 트렌드 | 5월 12일 : Daybreak, Interaction Models, AI 해킹, ChatGPT 확산, ModelLens

2026년 5월 12일 | AI 최신 트렌드2026년 5월 12일 큐레이션은 AI가 정보를 고르고, 보안을 점검하고, 사람과 계속 상호작용하는 표면으로 옮겨 가는 장면을 중심으로 묶었다. 제품 뉴스, 보안 사례, 사용량 데이터, 연구 논문을 한 줄로 세워 보면 “모델 성능”보다 “모델을 어디에 붙이고 어떻게 통제할 것인가”가 더 크게 보인다.1. Digg의 재시작: 뉴스 피드도 AI 랭킹 문제로 이동Figure 1: TechCrunch가 소개한 새 Digg 화면. 커뮤니티형 Reddit 대체재보다 AI 뉴스 랭킹 실험에 가까워졌다.TechCrunch에 따르면 Digg는 Reddit 클론처럼 보이던 초기 방향을 접고, 이번에는 AI 뉴스부터 랭킹하는 집계 서비스로 다시 돌아왔다. 흥미로운 지점은 “AI를 ..

[논문 리뷰]/[최신 논문]

[arXiv 2605.03596] Workspace-Bench 1.0: 대규모 파일 의존성으로 에이전트 업무 능력을 재는 벤치마크

Workspace-Bench 1.0: Benchmarking AI Agents on Workspace Tasks with Large-Scale File Dependencieshttps://arxiv.org/abs/2605.03596Zirui Tang, Xuanhe Zhou, Yumou Liu, Linchun Li, Weizheng Wang, Hongzhang Huang, Jun Zhou, Jiachen Song, Shaoli Yu, Jinqi Wang, Zihang Zhou, Hongyi Zhou, Yuting Lv, Jinyang Li, Jiashuo Liu, Ruoyu Chen, Chunwei Liu, GuoLiang Li, Jihua Kang, Fan Wu | Shanghai Jiao Tong Un..

[논문 리뷰]/[최신 논문]

[arXiv 2605.05191] LongSeeker: 장기 검색 에이전트를 위한 탄력적 컨텍스트 오케스트레이션

LongSeeker: Elastic Context Orchestration for Long-Horizon Search AgentsarXiv: https://arxiv.org/abs/2605.05191Yijun Lu, Rui Ye, Yuwen Du, Jiajun Wang, Songhua Liu, Siheng Chen | Shanghai Jiao Tong University | arXiv:2605.05191 | 2026년 5월1. 서론: 장기 검색 에이전트의 컨텍스트 병목LongSeeker 논문은 장기 검색 에이전트의 병목을 단순한 모델 크기나 검색 엔진 품질보다 먼저 작업 컨텍스트의 성장 방식에서 찾는다. ReAct 계열 에이전트는 reasoning trace, tool call, observation을 ..

[논문 리뷰]/[최신 논문]

[arXiv 2605.02572] 장기 지평 LLM 에이전트 학습: Horizon Length가 만드는 훈련 병목

On Training Large Language Models for Long-Horizon Tasks: An Empirical Study of Horizon Lengthhttps://arxiv.org/abs/2605.02572Sunghwan Kim, Junhee Cho, Beong-woo Kwak, Taeyoon Kwon, Liang Wang, Nan Yang, Xingxing Zhang, Furu Wei, Jinyoung Yeo | Department of Artificial Intelligence, Yonsei University; Microsoft Research | arXiv:2605.02572 | 2026년 5월 | ICML 20261. 서론: 긴 상호작용이 LLM 에이전트 학습을 흔드는 이유1..

[논문 리뷰]/[최신 논문]

[arXiv 2605.00817] LLM이 절차 수행을 멈출 때: 정답률 너머의 단계 실행 진단

When LLMs Stop Following Steps: A Diagnostic Study of Procedural Execution in Language Models원문: https://arxiv.org/abs/2605.00817 / HTML: https://arxiv.org/html/2605.00817v1저자/소속: Sailesh Panda, Pritam Kadasi, Mayank Singh | Indian Institute of Technology Gandhinagar; Abhishek Upperwal | Soket AI / arXiv 제출일: 2026년 5월 1일1. 서론: 정답을 맞히는 모델과 절차를 끝까지 실행하는 모델 사이1.1 문제의 출발점: 최종 답안 정확도만으로는 보이지 않는 실패이 논..

[논문 리뷰]/[최신 논문]

[arXiv 2604.27201] Path-Lock Expert: 하이브리드 사고의 reasoning mode를 아키텍처로 분리하기

Path-Lock Expert: Separating Reasoning Mode in Hybrid Thinking via Architecture-Level SeparationarXiv 링크: abs | HTML | GitHubShouren Wang, Wang Yang, Chuang Ma, Debargha Ganguly, Vikash Singh, Chaoda Song, Xinpeng Li, Xianxuan Long, Vipin Chaudhary, Xiaotian Han | Case Western Reserve University, NII LLMC Japan, Michigan State University | arXiv:2604.27201 | 2026년 4월 29일 제출1. 서론: 하이브리드 사고에서 직접 답..

[AI 최신 트렌드]

AI 트렌드 | 5월 3일 : 오스카 AI 규칙, 음성 입력, Codex 목표 루프, 커머스 에이전트, AI 투자 비용

2026년 5월 3일 | AI 최신 트렌드2026년 5월 3일 기준, 콘텐츠 권리와 작업 도구, 장기 코딩 에이전트, 커머스 운영, AI 투자 비용처럼 실제 업무 방식이 바로 흔들리는 소식만 골랐다.1. 오스카 규칙: AI 배우와 AI 각본의 수상 경계출처: TechCrunch, AI-generated actors and scripts are now ineligible for Oscars아카데미가 새 오스카 규칙에서 생성형 AI를 직접 다뤘다. TechCrunch 보도에 따르면, 수상 대상이 되는 연기는 법적 크레딧에 올라 있고 인간이 동의한 상태에서 실제로 수행한 연기여야 한다. 각본도 마찬가지로 사람이 쓴 작품이어야 한다는 기준이 들어갔다. 아카데미는 필요하면 작품의 AI 사용 여부와 인간 저작 여부..

[논문 리뷰]/[최신 논문]

[arXiv 2604.27283] Learning When to Remember: LLM 코딩 에이전트가 기억을 거절하는 방법

Learning When to Remember: Risk-Sensitive Contextual Bandits for Abstention-Aware Memory Retrieval in LLM-Based Coding Agentshttps://arxiv.org/abs/2604.27283Mehmet Iscan | PythaLab, Yildiz Technical University | arXiv:2604.27283 | 2026년 5월핵심 문제. Mehmet Iscan의 Learning When to Remember는 LLM 기반 코딩 에이전트가 과거 디버깅 메모리를 언제 써야 하고 언제 거절해야 하는지를 다룬다. 논문은 메모리 검색을 단순한 top-k 랭킹으로 보지 않고, 현재 실패와 과거 실패의 구조적 호환성,..

[논문 리뷰]/[최신 논문]

[arXiv 2604.28182] 탐색 해킹: LLM은 강화학습 후학습에 저항할 수 있는가

Exploration Hacking: Can LLMs Learn to Resist RL Training?https://arxiv.org/abs/2604.28182Eyon Jang, Damon Falck, Joschka Braun, Nathalie Kirch, Achu Menon, Perusha Moodley, Scott Emmons, Roland S. Zimmermann, David Lindner | MATS, UC San Diego, Anthropic, Google DeepMind | arXiv:2604.28182 | 2026년 4월1. 서론: RL 후학습이 모델 자신의 탐색에 의존할 때 생기는 취약점대규모 언어 모델의 후학습에서 강화학습은 이제 성능을 조금 더 다듬는 보조 절차를 넘어, 추론 능력, ..

[AI 최신 트렌드]

AI 트렌드 | 5월 1일 : Mac AI 수요, Silico 디버깅, 차량 Gemini, 법률 AI, 모델 증류, FAMA

2026년 5월 1일 | AI 최신 트렌드2026년 5월 1일 기준으로는 AI 수요가 하드웨어 판매, 모델 내부 디버깅, 차량 인터페이스, 법률 업무, 모델 IP, 에이전트 실패 복구까지 한꺼번에 번지는 흐름을 골랐다. 한쪽에서는 Mac 판매와 차량 내 Gemini처럼 AI가 기존 기기 표면을 밀어 올리고 있고, 다른 쪽에서는 Silico나 FAMA처럼 “모델과 에이전트를 어떻게 고칠 것인가”가 더 구체적인 도구 문제로 내려오고 있다.1. Apple Mac, AI 로컬 워크로드가 만든 의외의 수요TechCrunch는 Apple의 최근 분기에서 Mac 매출이 예상보다 강했고, 일부 수요를 로컬 AI와 에이전트 도구 실행 수요와 연결했다.TechCrunch 보도에서 가장 눈에 들어온 대목은 iPhone이나 ..

[논문 리뷰]/[최신 논문]

[arXiv 2604.26779] RL 후학습 롤아웃 가속: Speculative Decoding을 NeMo RL 안에 통합하는 방법

Accelerating RL Post-Training Rollouts via System-Integrated Speculative Decodinghttps://arxiv.org/abs/2604.26779Hayate Iso, Tiyasa Mitra, Sudipta Mondal, Rasoul Shafipour, Venmugil Elango, Terry Kong, Yuki Huang, Seonjin Na, Izzy Putterman, Benjamin Chislett, Maor Ashkenazi, Joseph Guman, Gerald Shen, Tugrul Konuk, Ashwath Aithal, Ritika Borkar, Ran Zilberstein, Bita Rouhani | NVIDIA technical ..

[AI 최신 트렌드]

AI 트렌드 | 4월 30일 : 클라우드 병목, 웹 에이전트, 사이버 방어, AI 옷장, 로보택시 규제, 연구 에이전트

2026년 4월 30일 | AI 최신 트렌드2026년 4월 30일 기준으로 내가 고른 흐름은 클라우드 용량 병목, 웹 에이전트용 검색 API, AI 사이버 방어 계획, 개인 사진 기반 쇼핑 기능, 로보택시 규제, 연구 에이전트 벤치마크다. 새 모델 하나가 튀어나왔다기보다, AI가 실제 운영 표면으로 내려오면서 인프라, 권한, 안전, 평가가 동시에 압박을 받는 쪽에 무게를 두었다.겉으로 보면 서로 꽤 다른 소식이다. Google Cloud는 수요를 다 못 받을 만큼 AI 인프라가 빡빡하다고 말하고, Parallel Web Systems는 에이전트가 웹을 읽는 방식을 API 상품으로 판다. OpenAI는 사이버 방어를 위한 다섯 갈래 계획을 냈고, Google Photos는 사용자의 사진첩을 옷장처럼 재구성..

[논문 리뷰]/[최신 논문]

[arXiv 2604.25917] RecursiveMAS: 잠재 공간 재귀로 다중 에이전트 협업을 확장하다

Recursive Multi-Agent Systemshttps://arxiv.org/abs/2604.25917Xiyuan Yang, Jiaru Zou, Rui Pan, Ruizhong Qiu, Pan Lu, Shizhe Diao, Jindong Jiang, Hanghang Tong, Tong Zhang, Markus J. Buehler, Jingrui He, James Zou | UIUC, Stanford University, NVIDIA, MIT 등 | arXiv:2604.25917v1 | 2026년 4월1. 서론: 다중 에이전트 협업을 재귀적 계산으로 다시 보기1.1 문제의식: 협업은 늘었지만 시스템은 충분히 함께 학습하지 못했다대규모 언어모델 기반 다중 에이전트 시스템은 복잡한 문제를 여러 역할로 ..

[개발 깨알 상식_Tips]/[바이브코딩 Tips]

모바일 Lovable 작업은 handoff bundle로 끊기

2026년 4월 29일 | 바이브코딩 TipsLovable이 iOS와 Android 앱으로 들어왔다는 소식을 보고 제일 먼저 든 생각은 "이제 폰에서도 웹앱을 만들 수 있겠네"가 아니었다. 오히려 나는 모바일에서 시작한 vibe coding 작업을 어디서 끊어야 하는가 쪽에 더 눈이 갔다. Vibe Coding은 자연어 지시로 코드나 앱 구조를 만들어 가는 방식인데, 모바일 앱이 붙으면 시작은 훨씬 쉬워지고 마무리는 더 위험해진다. 지하철에서 떠오른 아이디어를 음성으로 던지는 건 좋지만, 그 결과를 바로 배포 가능한 변경으로 취급하면 맥락이 너무 얇다.TechCrunch는 4월 28일 Lovable이 모바일 앱을 출시했고, 음성 또는 텍스트 프롬프트로 이동 중에도 웹사이트와 웹앱 아이디어를 만들 수 있게..

[AI 최신 트렌드]

AI 트렌드 | 4월 29일 : Claude 창작 커넥터, VibeVoice, 유튜브 AI 검색, 에이전트 결제, 국방 AI, 표 검색 견고성

2026년 4월 29일 | AI 최신 트렌드2026년 4월 29일 기준으로 내가 고른 흐름은 창작 도구에 직접 붙는 Claude, 오픈소스 음성 모델 VibeVoice, YouTube의 안내형 AI 검색, 에이전트 결제 인증, 국방 목적 AI 계약, 표 검색 견고성 논문이다. 선정 기준은 새 모델 이름보다 실행 권한, 사용자 접점, 검증 장치가 어디까지 내려왔는지였다.겉으로는 제품 뉴스, 오픈소스 저장소, 보안 표준, 정책 논란, 논문이 따로 움직이는 것처럼 보인다. 그런데 한 칸 뒤로 물러나면 전부 같은 방향을 가리킨다. AI가 텍스트 답변을 잘하는 단계를 지나, 실제 앱을 조작하고, 영상을 골라 주고, 결제를 대신하고, 고위험 조직의 업무 표면으로 들어가며, 검색 시스템 내부의 표현 안정성까지 건드리..

[논문 리뷰]/[최신 논문]

[arXiv 2604.24715] HyLo: 긴 컨텍스트를 보존하는 하이브리드 LLM 업사이클링

Long-Context Aware Upcycling: A New Frontier for Hybrid LLM Scalinghttps://arxiv.org/abs/2604.24715Parsa Ashrafi Fashi, Utkarsh Saxena, Mehdi Rezagholizadeh, Aref Jafari, Akash Haridas, Mingyu Yang, Vansh Bhatia, Guihong Li, Vikram Appia, Emad Barsoum | AMD | arXiv:2604.24715 | 2026년 4월1. 서론: 긴 문맥 확장의 비용을 업사이클링으로 줄이기대규모 언어 모델은 문서 이해, 코드 생성, 다단계 추론, 장기 대화처럼 입력 길이가 길어질수록 가치가 커지는 작업으로 이동하고 있다. 그러나 ..

[AI 실험실]/[개인 프로젝트] GNN

GNN | Structural variant failure-case report

시리즈: GNN 실험일지 #4이전: 3편 | 목록 | 다음: 5편2026년 4월 27일 | 개발 일기structural variant 비교를 평균 표 하나로만 읽으면, 작은 그래프에서 제일 중요한 실패 장면이 뒤로 밀린다. 직전 반복에서는 sample_collab과 bipartite_bridge 두 데이터셋을 묶어서 mean test AUC와 hardest split AUC를 같이 봤다. 그 자체로도 도움이 됐지만, 다시 보니 더 직접적으로 궁금한 질문이 남았다. 데이터셋마다 가장 어려웠던 seed를 먼저 고른 뒤, 그 seed 안에서 다섯 개 입력판을 다시 줄 세우면 어떤 설정이 실제 바닥을 지키는가.이번 반복은 새 encoder를 붙인 작업이 아니다. 이미 만들어 둔 multidataset_struc..

[논문 리뷰]/[최신 논문]

[arXiv 2604.21725] AEL: 경험 축적보다 경험 활용을 배우는 오픈엔디드 에이전트

AEL: Agent Evolving Learning for Open-Ended Environmentshttps://arxiv.org/abs/2604.21725Wujiang Xu, Jiaojiao Han, Minghao Guo, Kai Mei, Xi Zhu, Han Zhang, Dimitris N. Metaxas | Rutgers University; Independent Researcher | arXiv:2604.21725v1 | 2026년 4월 23일 제출1. 서론: 경험을 쌓아도 매번 거의 처음부터 푸는 에이전트의 역설대규모 언어모델 기반 에이전트는 이제 코딩, 웹 탐색, 데이터 분석, 연속 의사결정처럼 여러 에피소드에 걸친 오픈엔디드 환경에 투입된다. 그런데 실제 구현을 보면, 에이전트는 과거 경험..

[AI 최신 트렌드]

AI 트렌드 | 4월 26일 : 소버린 AI, 데이터센터 규제, 에이전트 메모리, 람다 벤치마크, AI 신약 임상

2026년 4월 26일 | AI 최신 트렌드2026년 4월 26일, 이번 묶음에서는 에이전트가 실제 거래와 규제, 오픈소스 툴, 바이오 실험까지 어디로 번지는지가 선명하게 보이는 항목만 골랐다.모델 출시 자체는 잠깐 숨을 고르는 날이었지만, 대신 AI를 둘러싼 실행 레이어가 더 또렷했다. 어떤 회사는 소버린 AI를 위해 합쳐지고, 어떤 주는 데이터센터 허가를 두고 줄다리기를 하고, 오픈소스 쪽에서는 에이전트 메모리와 새로운 벤치마크가 빠르게 자라난다. 연구실 바깥에서는 AI가 설계한 신약이 사람 대상 시험으로 넘어갈 준비를 한다. 점수표보다 산업 구조가 더 잘 보이는 날이었다.1. Cohere + Aleph Alpha: 유럽형 소버린 AI가 M&A 형태로 구체화되기Figure 1: Cohere와 Alep..

[논문 리뷰]/[최신 논문]

[arXiv 2604.21748] StructMem: 장기 대화 에이전트를 위한 구조화 메모리 설계

StructMem: Structured Memory for Long-Horizon Behavior in LLMshttps://arxiv.org/abs/2604.21748v1Buqiang Xu, Yijun Chen, Jizhan Fang, Ruobin Zhong, Yunzhi Yao, Yuqi Zhu, Lun Du, Shumin Deng | Zhejiang University; Ant Group; Zhejiang University - Ant Group Joint Laboratory of Knowledge Graph | arXiv:2604.21748 | 2026년 4월 23일 제출 | ACL 2026 main conference accepted1. 서론: 장기 대화 기억의 기본 단위를 다시 묻는 논문대형언..

홈으로 돌아가기

검색 결과

"" 검색 결과입니다.