2026년 5월 12일 | AI 최신 트렌드2026년 5월 12일 큐레이션은 AI가 정보를 고르고, 보안을 점검하고, 사람과 계속 상호작용하는 표면으로 옮겨 가는 장면을 중심으로 묶었다. 제품 뉴스, 보안 사례, 사용량 데이터, 연구 논문을 한 줄로 세워 보면 “모델 성능”보다 “모델을 어디에 붙이고 어떻게 통제할 것인가”가 더 크게 보인다.1. Digg의 재시작: 뉴스 피드도 AI 랭킹 문제로 이동Figure 1: TechCrunch가 소개한 새 Digg 화면. 커뮤니티형 Reddit 대체재보다 AI 뉴스 랭킹 실험에 가까워졌다.TechCrunch에 따르면 Digg는 Reddit 클론처럼 보이던 초기 방향을 접고, 이번에는 AI 뉴스부터 랭킹하는 집계 서비스로 다시 돌아왔다. 흥미로운 지점은 “AI를 ..
2026년 4월 30일 | AI 최신 트렌드2026년 4월 30일 기준으로 내가 고른 흐름은 클라우드 용량 병목, 웹 에이전트용 검색 API, AI 사이버 방어 계획, 개인 사진 기반 쇼핑 기능, 로보택시 규제, 연구 에이전트 벤치마크다. 새 모델 하나가 튀어나왔다기보다, AI가 실제 운영 표면으로 내려오면서 인프라, 권한, 안전, 평가가 동시에 압박을 받는 쪽에 무게를 두었다.겉으로 보면 서로 꽤 다른 소식이다. Google Cloud는 수요를 다 못 받을 만큼 AI 인프라가 빡빡하다고 말하고, Parallel Web Systems는 에이전트가 웹을 읽는 방식을 API 상품으로 판다. OpenAI는 사이버 방어를 위한 다섯 갈래 계획을 냈고, Google Photos는 사용자의 사진첩을 옷장처럼 재구성..
2026년 4월 27일 | AI 최신 트렌드Codex의 스케줄 실행, Ads Advisor의 안전 자동화, Project Maven의 표적화 루프, Deezer의 탐지 수치, VLAA-GUI의 검증 체계를 한꺼번에 놓고 보니, 나는 이번 흐름의 중심이 모델 점수보다 작업을 자동으로 돌리고 멈추고 검증하는 운영 계층으로 옮겨가고 있다고 느꼈다. 새 모델이 하나 더 나왔다는 소식보다, 이미 나온 모델과 에이전트를 어디에 붙이고 어떤 실패를 미리 잘라내는지가 더 또렷하게 보인 날이었다.다섯 항목의 표면은 제각각이다. 하나는 코딩 에이전트 문서이고, 하나는 광고 운영 제품 업데이트이며, 하나는 군사용 표적화 시스템이고, 또 하나는 음악 플랫폼의 탐지 통계고, 마지막 하나는 GUI 자동화 논문이다. 그런데 조금만..
2026년 4월 23일 | 개발 깨알 상식_TipsResponses API WebSocket mode를 보면서 내가 메모한 건 새 전송 방식 하나가 아니라 에이전트 turn을 새 요청으로 취급하지 않는 기준이었다. OpenAI가 4월 22일 공개한 설명을 보면, tool call이 20번 넘게 이어지는 롤아웃에서 종단 기준 약 40% 더 빠른 실행을 봤다고 적혀 있다. 포인트는 모델만 빨라진 게 아니라, follow-up turn마다 전체 대화 히스토리와 도구 정의를 다시 검증하고 다시 토크나이즈하는 낭비를 줄였다는 데 있었다.나는 이런 글을 보면 성능 수치보다 먼저 내 루프에서 무엇을 매번 다시 보내고 있었나를 본다. 코딩 에이전트나 tool-heavy orchestration은 생각보다 모델 추론보다..
2026년 4월 23일 | AI 최신 트렌드2026년 4월 23일 메모 | 앱 화면, 팀 워크플로, 데이터센터, 이어버드, 손목 위 응답처럼 AI가 먼저 붙는 위치가 하루 만에 훨씬 잘게 나뉘어 보였다.X는 홈 탭 자체를 Grok 기반 큐레이션 피드로 다시 짜기 시작했고, OpenAI는 커스텀 GPT를 넘어 팀이 같이 쓰는 workspace agents를 전면에 올렸다. Google은 학습용과 추론용 TPU를 아예 갈라서 내놨고, Anker는 이어버드 같은 작은 기기 안에 들어갈 compute-in-memory AI 칩을 발표했다. 여기에 arXiv에서는 8M~30M 규모의 초소형 언어 모델이 먼저 몇 단어를 말하고 클라우드 모델이 그 문장을 이어받는 방식까지 나왔다.나는 이런 묶음이 재미있다. 모델 성..
2026년 4월 12일 | AI 최신 트렌드개발도구 서명 체인, advisor형 모델 배치, 에이전트 벤치마크 취약점, FlashAttention 재구현, 컴퓨트 성장 서사가 한꺼번에 겹치면서 모델 점수보다 배포 신뢰, 고가 모델의 역할 분리, 벤치마크 신뢰성, 구현 투명성, 컴퓨트 내러티브가 더 크게 보였다.같은 주에 나온 소식들을 한 묶음으로 놓고 보니 요즘 AI 경쟁은 단순히 더 큰 모델 한 번 발표하는 방식으로는 잘 설명이 안 된다. 어떤 회사는 개발도구 사고가 났을 때 앱 신뢰를 어떻게 복구하는지를 보여 줬고, 어떤 곳은 가장 비싼 모델을 메인 엔진 대신 조언자 위치에 두기 시작했다. 또 한쪽에서는 에이전트 벤치마크 점수 자체가 얼마나 쉽게 부풀려질 수 있는지를 공개적으로 찔렀고, 오픈소스 쪽에..
Language Models are Few-Shot Learnershttps://arxiv.org/abs/2005.14165Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel M. Ziegler, Jeffrey Wu, Clemens Winter, Christopher Hesse, Mark Chen,..