2026년 4월 30일 | AI 최신 트렌드
2026년 4월 30일 기준으로 내가 고른 흐름은 클라우드 용량 병목, 웹 에이전트용 검색 API, AI 사이버 방어 계획, 개인 사진 기반 쇼핑 기능, 로보택시 규제, 연구 에이전트 벤치마크다. 새 모델 하나가 튀어나왔다기보다, AI가 실제 운영 표면으로 내려오면서 인프라, 권한, 안전, 평가가 동시에 압박을 받는 쪽에 무게를 두었다.
겉으로 보면 서로 꽤 다른 소식이다. Google Cloud는 수요를 다 못 받을 만큼 AI 인프라가 빡빡하다고 말하고, Parallel Web Systems는 에이전트가 웹을 읽는 방식을 API 상품으로 판다. OpenAI는 사이버 방어를 위한 다섯 갈래 계획을 냈고, Google Photos는 사용자의 사진첩을 옷장처럼 재구성한다. 중국은 Baidu 로보택시 사고 뒤 신규 허가를 멈췄고, AutoResearchBench 논문은 연구 논문을 찾는 에이전트가 아직 꽤 낮은 점수에 머문다는 걸 보여 준다. 나는 이런 날일수록 성능표보다 어디에 붙고, 무엇을 대신하고, 어디서 막히는가를 먼저 보게 된다.
1. Google Cloud: 200억 달러 분기 매출보다 눈에 띈 것은 용량 부족
Figure 1. Google Cloud의 분기 매출 증가는 AI 수요가 실제 인프라 용량 제약과 함께 움직인다는 점을 보여 준다.
TechCrunch에 따르면 Google Cloud는 2026년 1분기에 처음으로 분기 매출 200억 달러를 넘겼고, 전년 동기 대비 63% 성장했다. 겉으로는 멋진 실적 발표인데, 내가 더 크게 본 숫자는 따로 있었다. Alphabet은 AI 솔루션이 클라우드 성장의 가장 큰 동력이었고, 생성형 AI 모델 기반 제품은 전년 대비 거의 800% 성장했다고 설명했다. Gemini Enterprise도 직전 분기 대비 40% 성장했고, API를 통한 AI 토큰 처리량은 분당 160억 토큰으로 늘었다.
그런데 Sundar Pichai가 함께 꺼낸 말은 더 현실적이었다. Google은 단기적으로 컴퓨트 제약을 받고 있고, 수요를 모두 맞출 수 있었다면 클라우드 매출이 더 높았을 것이라고 말했다. Cloud backlog가 한 분기 만에 두 배가 되어 4620억 달러에 이르렀고, 회사는 이 중 절반을 향후 24개월 안에 처리할 것으로 본다. 이건 AI 인프라가 단순히 “많이 팔린다”는 수준을 넘어, 수요 예측과 데이터센터 증설, TPU 공급, 고객 우선순위 배정이 모두 제품 전략이 됐다는 뜻에 가깝다.
나는 이 지점이 꽤 중요하다고 봤다. 모델 발표는 멋있지만, 실제 기업 고객이 쓰는 AI는 결국 클라우드 용량 위에서 돈다. API가 빨라지고 에이전트가 길게 실행될수록 토큰 처리량, GPU/TPU, 전력, 데이터센터 입지가 병목이 된다. 이제 프런티어 모델 경쟁은 “누가 더 똑똑한가”에서 한 걸음 더 나아가 수요가 몰리는 순간에도 충분한 용량을 배정할 수 있는가로 읽어야 한다. AI 붐이 숫자상으로 커지는 만큼, 그 뒤쪽의 물리적 공급망은 점점 더 노골적인 경쟁 변수가 되고 있다.
원문: TechCrunch - Google Cloud surpasses $20B but says growth was capacity-constrained
2. Parallel Web Systems: 웹 검색이 에이전트용 인프라 상품으로 분리되는 흐름
Figure 2. Parallel Web Systems는 사람용 검색창과 다른, AI 에이전트 호출용 웹 검색·리서치 API를 전면에 둔다.
TechCrunch는 전 Twitter CEO Parag Agrawal이 세운 Parallel Web Systems가 Sequoia 주도 Series B에서 1억 달러를 조달했고, 기업가치가 20억 달러에 도달했다고 보도했다. 불과 다섯 달 전 Series A에서 7억 4000만 달러 평가를 받았다는 점을 생각하면 꽤 빠른 속도다. 총 조달액은 2억 3000만 달러로 올라갔다.
Parallel이 파는 것은 일반 사용자를 위한 검색 엔진이 아니다. 회사는 AI 에이전트가 웹을 검색하고 리서치할 수 있게 하는 API 묶음을 제공하고, 고객으로 Clay, Harvey, Notion, Opendoor 등을 언급한다. 은행과 헤지펀드도 고객에 포함된다고 한다. 기사에는 개발자 수치도 나온다. Parallel은 자사 제품을 쓰는 개발자가 10만 명 이상이라고 설명했다. 나는 이 숫자보다도 “검색”이 앱 기능에서 에이전트 런타임의 하부 인프라로 분리되고 있다는 점이 더 흥미로웠다.
에이전트가 웹을 쓴다는 말은 간단해 보이지만, 실제 구현은 복잡하다. 검색어를 어떻게 쪼갤지, 어느 페이지를 신뢰할지, 중복 결과를 어떻게 합칠지, 업데이트된 정보를 어디까지 다시 확인할지, 비용과 지연을 어떻게 제한할지까지 전부 제품 문제가 된다. 사람이 브라우저에서 검색할 때는 눈으로 대충 거르는 작업을 AI 에이전트는 API 안의 랭킹과 필터에 의존한다. 그래서 Parallel 같은 회사가 커지는 건 에이전트 붐의 주변부를 넘어, 에이전트가 외부 세계를 읽는 눈과 귀를 누가 제공하느냐의 경쟁으로 보인다.
원문: TechCrunch - Parallel Web Systems hits $2B valuation five months after its last big raise
3. OpenAI 사이버 보안 계획: 방어 능력을 넓히되 통제권을 같이 설계하기
Figure 3. OpenAI의 사이버 보안 계획은 방어 도구의 민주화와 프런티어 사이버 능력의 통제를 동시에 다룬다.
OpenAI는 “Intelligence Age”의 사이버 보안을 위한 action plan을 공개했다. 직접 페이지를 읽어 보면 방향은 다섯 갈래다. 사이버 방어의 민주화, 정부와 산업계의 조율, 프런티어 사이버 능력 주변의 보안 강화, 배포 과정의 가시성과 통제 보존, 사용자가 스스로를 보호할 수 있게 하는 기능이다. OpenAI는 AI가 취약점 식별, 자동 복구, 빠른 대응을 도울 수 있지만, 동시에 공격자가 공격 규모와 정교함을 키우는 데 쓸 수 있다고 전제한다.
나는 이 발표를 단순한 보안 캠페인으로 보지 않았다. 핵심은 “AI를 보안에 쓰자”라는 구호보다, 강한 모델이 사이버 업무에 들어갈 때 누구에게 어떤 능력을 열고, 어떤 로그와 권한으로 통제할지를 제품 구조로 묶는 데 있다. 특히 OpenAI가 trusted actor, critical systems, national security 같은 표현을 함께 쓰는 점은 중요하다. 사이버 방어는 누구에게나 필요한 영역이지만, 강한 자동화 능력이 잘못 열리면 공격 자동화와 경계가 금방 흐려진다.
이 흐름은 4월 중순에 봤던 고위험 사이버 모델 접근 제어와도 이어진다. 방어 도구를 넓게 보급하되, 프런티어급 능력은 인증된 수비자와 책임 있는 조직을 중심으로 단계적으로 여는 쪽이다. 실무에서는 모델의 거절 정책만큼이나 사용자 인증, 목적 확인, 감사 로그, 배포 후 모니터링이 중요해진다. 앞으로 사이버 AI 제품을 볼 때는 “무엇까지 해 주나”와 함께 “어떤 사용자를 어떤 증거로 신뢰하나”를 같이 봐야 할 것 같다.
원문: OpenAI - Cybersecurity in the Intelligence Age
4. Google Photos AI 옷장: 개인 사진첩이 쇼핑과 스타일 추천의 데이터베이스가 되는 장면
Figure 4. Google Photos의 AI wardrobe 기능은 사용자의 기존 사진을 옷장처럼 재구성해 가상 착용과 조합을 돕는다.
The Verge는 Google Photos가 사용자의 갤러리 사진을 바탕으로 가상 wardrobe를 만드는 AI 기능을 출시한다고 전했다. 사용자가 이미 입고 찍힌 옷을 Photos가 정리하고, 상의, 하의, 치마, 드레스, 신발 같은 항목으로 조합해 새로운 룩을 만들 수 있게 한다. 마음에 드는 조합은 저장하거나 공유할 수 있고, 오른쪽 아래 버튼으로 가상 착용도 해볼 수 있다고 한다. Android에는 여름부터 먼저 나오고, 이후 iOS로 확장될 예정이다.
이 소식은 작년에 Google이 검색에서 쇼핑 중인 옷을 가상 착용하게 했던 기능보다 한 단계 더 민감하다. 쇼핑 페이지의 상품 이미지가 아니라 내 사진첩 속 내 옷과 내 몸의 기록이 입력이 되기 때문이다. 편해지는 만큼 데이터의 의미가 바뀐다. 사진첩은 원래 추억 보관함에 가까웠는데, AI가 들어오면 개인 스타일, 체형, 구매 후보, 날씨와 일정에 맞는 추천까지 연결되는 운영 데이터베이스가 된다.
나는 이 기능이 소비자 AI의 아주 현실적인 방향을 보여 준다고 봤다. 챗봇에게 “뭘 입을까”라고 묻는 것보다, 이미 내가 가진 옷과 과거 사진을 읽어 조합해 주는 쪽이 훨씬 쓸모 있다. 다만 이 방식은 개인화가 강해지는 만큼 설명 가능성과 삭제권도 중요해진다. 어떤 사진이 옷으로 인식됐는지, 잘못 분류된 옷을 어떻게 지울지, 민감한 사진을 학습이나 추천에서 뺄 수 있는지가 UX의 일부가 되어야 한다. 앞으로 개인 AI는 대화 실력보다 내 데이터 안에서 쓸 만한 구조를 얼마나 조심스럽게 만들 수 있느냐로 평가받게 될 것 같다.
원문: The Verge - Google Photos launches an AI try-on feature for clothes you already have
5. 중국 로보택시 허가 중단: 실제 도로에서 AI 실패가 규제 속도로 돌아오는 순간
Figure 5. Baidu Apollo Go 로보택시 정지 사건 이후 중국은 신규 무인차 허가를 일시 중단한 것으로 보도됐다.
The Verge는 Bloomberg 보도를 인용해 중국이 자율주행차 신규 허가 발급을 중단했다고 전했다. 배경에는 지난달 Wuhan에서 Baidu의 Apollo Go 로보택시 수십 대가 교통 흐름 속에서 멈춰 혼란을 일으킨 사건이 있다. 신규 무인차를 더 투입하거나, 새 도시로 확장하거나, 새 테스트 프로젝트를 시작하는 것이 제한되고, 언제 허가가 재개될지는 불명확하다고 한다.
로보택시는 AI 뉴스 중에서도 특히 다루기 까다롭다. 데모 영상이나 제한 구역 성능만 보면 꽤 가까워 보이지만, 실제 도로에서는 실패가 곧 교통 체증, 응급 대응 지연, 시민 불신, 규제 중단으로 연결된다. 챗봇이 틀린 답을 하면 수정하면 되지만, 차량이 도로 한복판에서 멈추면 도시 운영이 영향을 받는다. 나는 이 뉴스가 자율주행의 핵심 병목을 알고리즘 정확도 하나보다 도시 단위 장애 대응과 허가 체계 쪽에서 보게 만든다고 느꼈다.
중국은 로보택시 상용화를 빠르게 밀어붙이는 시장 중 하나였기 때문에, 이런 정지는 더 의미가 있다. 기술 기업 입장에서는 확장 속도가 중요하지만, 규제기관 입장에서는 한 번의 대규모 혼란이 전체 산업 신뢰를 흔든다. 결국 피지컬 AI는 온라인 서비스보다 훨씬 강한 운영 증거를 요구한다. 장애가 났을 때 누가 차량을 회수하는지, 원격 개입은 얼마나 빨리 되는지, 같은 상황이 반복될 확률을 어떻게 줄이는지, 시민에게 어떤 정보를 공개하는지가 제품의 일부가 된다. 로보택시 경쟁은 운전 성능뿐 아니라 실패 후 복구 프로토콜의 경쟁이기도 하다.
원문: The Verge - China freezes new robotaxi licenses after Baidu chaos
6. AutoResearchBench: 연구 논문 찾기는 아직 에이전트에게 만만하지 않다
Figure 6. AutoResearchBench는 특정 논문을 추적하는 Deep Research와 조건을 만족하는 논문 집합을 모으는 Wide Research를 함께 평가한다.
Hugging Face Daily Papers에서 고른 논문은 AutoResearchBench다. 이 벤치마크는 AI 에이전트가 과학 문헌을 얼마나 잘 찾는지 보려 한다. 태스크는 두 종류다. Deep Research는 단서를 따라 특정 target paper를 찾아야 하고, Wide Research는 조건을 만족하는 논문 집합을 빠짐없이 모아야 한다. 논문은 이 과제가 일반 웹 브라우징 벤치마크보다 연구 지식 이해, 세부 정보 활용, 열린 검색 범위 때문에 훨씬 어렵다고 설명한다.
숫자가 꽤 차갑다. 저자들은 강한 LLM과 end-to-end research system을 평가했지만, 가장 강한 모델도 Deep Research에서 9.39% accuracy, Wide Research에서 9.31% IoU 수준에 머물렀다고 썼다. 많은 강한 baseline은 5% 아래였다고 한다. 사람 입장에서도 논문 찾기는 쉽지 않지만, 에이전트에게는 더 복잡하다. 검색어를 다시 쓰고, 초록과 본문을 읽고, 비슷한 논문을 구분하고, 조건에 맞지 않는 후보를 버리고, 최종 답이 유일한지 확인해야 한다.
나는 이 논문이 “딥리서치”라는 제품 이름의 기대치를 조금 차분하게 만들어 준다고 느꼈다. 요약 보고서를 길게 쓰는 것과 실제로 필요한 문헌을 정확히 찾아오는 것은 다르다. 특히 Wide Research처럼 정답 개수가 처음부터 정해져 있지 않은 문제에서는, 에이전트가 멈출 시점을 판단해야 한다. 누락이 있는지, 중복을 제거했는지, 조건 해석이 바뀌지 않았는지까지 모두 평가해야 한다. 앞으로 연구 에이전트의 품질은 답변 문장보다 검색 경로, 제외 이유, 누락 가능성, 재현 가능한 평가 로그를 얼마나 남기는지에서 갈릴 가능성이 크다.
원문: arXiv - AutoResearchBench: Benchmarking AI Agents on Complex Scientific Literature Discovery · HTML 본문
7. 묶어서 보면: 실행 표면이 커질수록 병목도 더 구체적이 된다
여섯 소식을 한 줄로 묶으면, AI가 실제 세계에 붙을수록 병목도 훨씬 구체적으로 드러난다는 이야기다. Google Cloud는 수요를 못 받을 정도로 인프라가 부족하고, Parallel은 에이전트가 웹을 읽는 계층을 별도 API 사업으로 만든다. OpenAI의 사이버 보안 계획은 강한 능력을 누구에게 열지 묻고, Google Photos는 개인 사진첩을 구조화된 쇼핑 데이터로 바꾼다. 중국 로보택시 허가 중단은 피지컬 AI의 실패가 곧 도시 운영과 규제로 돌아온다는 점을 보여 주고, AutoResearchBench는 연구 에이전트가 논문을 찾는 기본 작업에서도 아직 낮은 정확도에 머문다는 사실을 짚는다.
그래서 나는 당분간 AI 뉴스를 볼 때 모델 이름보다 운영 조건을 먼저 볼 생각이다. 충분한 컴퓨트가 있는가. 외부 웹을 읽는 경로가 믿을 만한가. 고위험 능력을 쓰는 사용자는 어떻게 검증되는가. 개인 데이터는 어떤 구조로 재가공되는가. 실제 도로에서 실패했을 때 복구 루프가 있는가. 연구 에이전트는 검색을 끝냈다는 판단을 어떻게 증명하는가. 이 질문들이 답변 품질 못지않게 중요해지는 순간, AI 산업은 데모의 시대에서 운영의 시대로 더 깊게 들어간다.
출처
- TechCrunch | Google Cloud surpasses $20B but says growth was capacity-constrained
- TechCrunch | Parallel Web Systems hits $2B valuation five months after its last big raise
- OpenAI | Cybersecurity in the Intelligence Age
- The Verge | Google Photos launches an AI try-on feature for clothes you already have
- The Verge | China freezes new robotaxi licenses after Baidu chaos
- arXiv | AutoResearchBench: Benchmarking AI Agents on Complex Scientific Literature Discovery