소식

Jia Yangqing의 10년 클래식이 Time Test Award를 수상했습니다! ICML 2024 10대 최우수 논문 경품 추첨, 인기 SD3, Gu

2024-07-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


새로운 지혜 보고서

편집자: 도자는 너무 졸려요

[새로운 지혜 소개] 연례 ICML 최고상이 마침내 발표되었습니다! 올해 최우수 논문상은 총 10편의 논문이 수상했는데, 그 중 이미지 생성 모델인 SD3, 영상 생성 모델인 VideoPoet, 기본 월드 모델인 Genie 등 3편이 유명합니다. 또한, Time Test Award는 10년 전 Jia Yangqing과 그의 팀이 제안한 DeCAF 프레임워크에 수여되었습니다.

ICML 2024 어워드가 새롭게 발표되었습니다!

바로 지금, ICML 개회식이 공식적으로 개최되었습니다. 10개의 최우수 논문상이 발표되었고, 10년 전의 논문이 Time Test Award를 수상했습니다.

최고의 논문 중에는 SD3 기술 보고서, CMU Google AI 비디오 모델 VideoPoet, Google 기본 월드 모델 Genie 등 AI 이미지 및 비디오 생성 분야에서 인기 있는 여러 작품이 있습니다.



2013년 10월 AI 전문가 Jia Yangqing 등이 발표한 DeCAF 논문이 Time Test Award를 수상했다는 점은 언급할 가치가 있습니다.

방금 그는 이 영예를 받게 되어 깊은 영광이라고 썼습니다.


CMU 교수이자 Meta GenAI 부사장인 Russ Salakhutdinov는 ICML 2024의 전체 채용 결과를 요약했습니다.

이번 학회에는 총 9,473편의 논문이 접수됐고 그 중 2,610편이 채택됐고 합격률은 27.55%였다. 144개 기사는 구두 기사이고 191개 기사는 Spotlight 기사입니다.

올해 새롭게 제출된 의견서는 286편이 접수됐고 75편(26%)이 채택됐다. 15개 기사는 구두 기사이고 11개 기사는 Spotlight 기사입니다.

또한 워크숍에는 145개의 제안이 있었고 그 중 30개가 채택되었습니다. 튜토리얼에는 55개의 제안이 있었고 12개가 승인되었습니다.


올해로 제41회 ICML 2024 연례회의(매년 1회)가 7월 21일부터 27일까지 오스트리아 비엔나에서 개최된다.


이날 집회에는 8,675명이 잇따라 참석해 객석이 없었다.



ICML 2024 정상회담 개요

조직위는 시상에 앞서 먼저 올해 학회의 전반적인 상황을 소개했다.

· 9개의 EXPO 토크 패널

· 12개의 튜토리얼

· 초청연사 6명

· 논문 2,610편(본학술대회)

· 30개 워크숍

· 12,345명의 저자 및 연사

· 참가자 중 39%가 학생

· 오프라인 소셜 활동 10개

· 인연 이벤트 3개

· 자원봉사자 52명

· 97명의 시니어 지역 의장(SAC), 492명의 지역 의장(AC), 7473명의 검토자

· 등록참가자 9,406명 (현장참석자 8,675명)


ICML은 게재된 논문을 바탕으로 올해 가장 핫한 단어이기도 한 자주 등장하는 단어를 정리했습니다.

대형 모델이 가장 자주 나타나며 600회 이상 나타납니다.

이어 강화 학습, 딥 러닝, 그래프 신경망, 머신 러닝, 연합 학습, 확산 모델, Transformer, LLM, 표현 학습, 생성 모델 등이 이어집니다.


등록된 국가/지역을 보면 미국이 2,463명, 중국이 1,100명 이상으로 2위를 차지하고 있다.

시간 테스트를 거친 상

일반적으로 Time Test Award는 10년 이상 중요하고 지속적인 영향을 미친 학술 논문에 수여됩니다.


본 논문은 UC Berkeley에서 공부하고 Google 인턴십 기간 동안 팀과 협력한 Caffe의 아버지 Jia Yangqing이 완성한 고전적인 작업이기도 합니다.

그는 2013년 구글에서 인턴 시절 커피를 너무 많이 마셨다고 한 인터뷰에서 말한 적이 있다. 그래서 커피를 끊도록 독려하기 위해 DeCAF라는 이름을 붙였다.


초과 근무를 하는 동안 그는 "DeCAF는 비전 분야의 기초 기능이자 심층 임베딩이 되어야 하며 컴퓨터 비전 분야에 일반화 가능한 기능도 제공해야 합니다..."라고 게시했습니다.

DeCAF 연구의 영향은 일반 객체 감지 프레임워크인 R-CNN, 고성능 이기종 컴퓨팅 프레임워크인 Caffe를 탄생시켰고, 1세대 가속 프레임워크인 CuDNN을 작성하기 위한 Berkeley와 NVIDIA의 협력에 간접적으로 기여했다는 점과, Yahoo Labs 생성의 대규모 배포 CaffeOnSpark 교육과 같은 일련의 작업을 통해 Berkeley는 딥 러닝 물결에서 선도적인 위치를 확립했습니다.


제목: DeCAF: 일반 시각 인식을 위한 딥 컨볼루션 활성화 기능

저자: Jeff Donahue, Yangqing Jia, Oriol Vinyals, Judy Hoffman, Ning Zhang, Eric Tzeng, Trevor Darrell

기관: 캘리포니아대학교 버클리캠퍼스


논문 주소: https://arxiv.org/abs/1310.1531

인간 행동을 표현하기 위해 더 나은 확률적 프레임워크를 사용하기 위해 팀은 첫 번째 프레임워크인 DeCAF를 직접 작성했습니다.

이 연구에서 저자는 대규모 고정 객체 인식 작업에 대해 완전히 감독되는 방식으로 훈련된 심층 컨벌루션 네트워크에서 추출된 특징이 새로운 범용 작업에 재사용될 수 있는지 여부를 평가합니다.

이러한 일반 작업은 원래 훈련 작업과 크게 다를 수 있으며, 주석이 달린 데이터가 충분하지 않거나 주석이 달린 데이터가 전혀 없을 수 있으므로 기존 방법으로는 새로운 작업에 적응하기 위해 심층 네트워크를 훈련하거나 미세 조정하는 데 사용할 수 없습니다.

또한 저자는 장면 인식, 도메인 적응, 세분화된 인식 등의 작업에서 심층 컨벌루션 특징의 의미론적 클러스터링을 시각화하고 네트워크의 다양한 수준에 따라 달라지는 고정 특징을 정의하는 효과를 비교함으로써 몇 가지 제안을 제안했습니다. 중요한 새로운 SOTA가 시각적 과제에서 달성되었습니다.

마지막으로 저자는 모든 관련 네트워크 매개변수와 함께 이러한 심층 컨벌루션 활성화 기능인 DeCA의 오픈 소스 구현을 출시합니다. 이는 시각적 작성자가 다양한 시각적 개념 학습 패러다임에서 심층적 표현을 실험하는 데 도움이 됩니다.


10가지 최고의 논문

올해에는 최우수 논문 10편이 선정되었습니다.



위 순위는 모두 구술 발표 순이다.

제목: 데이터 분포의 비율을 추정하여 이산 확산 모델링

저자: Aaron Lou, Chenlin Meng, Stefano Ermon

기관: 스탠포드 대학교, Pika Labs


논문 주소: https://arxiv.org/abs/2310.16834

본 연구에서는 주로 이산 데이터 생성 작업을 대상으로 하는 새로운 기계 학습 모델 SEDD(Score Entropy Discrete Diffusion)를 제안합니다.

현재 확산 모델은 많은 생성 모델링 작업에서 획기적인 성능을 보여주지만 자연어와 같은 개별 데이터 필드에서는 성능이 좋지 않습니다.

논문에서 저자는 이러한 격차를 해소하기 위해 점수 엔트로피 개념을 제안했습니다.

이는 점수 매칭을 이산 공간으로 자연스럽게 확장하고, 원활하게 통합하여 이산 확산 모델을 구축하고, 성능을 크게 향상시키는 새로운 손실 함수입니다.

실험 평가 과정에서 SEDD는 기존 언어 확산 모델보다 더 나은 성능을 보였습니다(혼란도가 25~75% 감소했습니다).

게다가 어떤 면에서는 GPT-2와 같은 자기회귀 모델을 능가하기도 합니다.


요약하면 SEDD의 장점은 다음과 같습니다.

- 온도 스케일링 등의 기술을 사용하지 않고도 고품질 텍스트 생성 가능(퍼플렉시 생성은 어닐링되지 않은 GPT-2보다 약 6~8배 우수함)

- 컴퓨팅 리소스와 출력 품질 사이의 유연한 균형(유사한 성능을 달성하기 위해 32배 더 적은 네트워크 평가 사용)

- 제어 가능한 텍스트 채우기를 지원하여 더 많은 유연성을 제공합니다. (왼쪽에서 오른쪽 프롬프트 이외의 전략을 지원하면서 핵 샘플링 품질 일치)

논문 2: 고해상도 이미지 합성을 위한 정류 변압기 스케일링

저자: 패트릭 에서, 수미스 쿨랄, 안드레아스 블래트만, 라힘 엔테자리, 조나스 뮐러, 해리 사이니, 얌 레비, 도미닉 로렌츠, 악셀 자우어, 프레데릭 보셀, 더스틴 포델, 팀 독혼, 자이언 잉글리시, 카일 레이시, 알렉스 굿윈, 야닉 마렉, 로빈 롬바흐

소속 : 안정성 AI


논문 주소: https://arxiv.org/abs/2403.03206

서두에서 언급했듯이 본 논문은 인기가 높은 Stable Diffusion 3에 대한 기술 보고서이다.

Sora와 유사하게 SD3는 향상된 버전의 확산 모델과 DiT의 Vincentian 그래프를 기반으로 하는 새로운 아키텍처를 사용합니다.

특히 저자는 2개의 CLIP 모델과 1개의 T5라는 3개의 서로 다른 텍스트 인코더를 사용하여 텍스트 정보를 처리하고, 고급 자동 인코딩 모델을 사용하여 이미지 정보를 처리했습니다.


새로 제안된 MMDiT(다중 모드 확산 변환기) 아키텍처는 이미지 및 언어 표현에 각각 독립적인 가중치 세트를 사용합니다. SD3의 초기 버전에 비해 텍스트 이해 및 텍스트 맞춤법 기능이 크게 향상되었습니다.

평가 결과는 SD3가 프롬프트 따르기의 정확성, 텍스트의 명확한 표현, 이미지의 시각적 아름다움 측면에서 현재의 Vincentian 다이어그램 생성 기술의 최첨단 수준에 도달하거나 능가한다는 것을 보여줍니다.


논문 제목: Twisted Sequential Monte Carlo를 통한 언어 모델의 확률적 추론

작곡: Stephen Zhao, Rob Brekelmans, Alireza Makhzani, Roger Grosse

기관: 토론토 대학, 벡터 연구소


논문 주소: https://arxiv.org/abs/2404.17546

이 연구는 대규모 모델의 샘플링 및 추론 문제에 중점을 둡니다.

RLHF, 자동화된 레드팀 테스트, 신속한 엔지니어링 및 패딩과 같은 LLM의 다양한 기능 및 보안 기술을 고려할 수 있습니다.

보상이나 잠재적 기능이 주어지면 정의된 정규화되지 않은 목표 분포에서 샘플링합니다. 이 분포는 전체 시퀀스에 대해 정의됩니다.

논문에서 저자는 이러한 샘플링 확률 문제를 해결하기 위해 순차 몬테카를로(SMC) 방법을 사용할 것을 제안합니다.

이에 저자는 샘플링 프로세스를 최적화하기 위해 각 시간 단계에서 잠재적인 미래 값을 추정하는 비틀기 함수를 제안합니다.

또한 그들은 LLM 추론 기술의 정확성을 평가하기 위해 새로운 양방향 SMC 경계를 사용하는 방법도 제안했습니다.

최종 결과는 Twisted SMC가 사전 훈련된 모델에서 잘못된 출력을 샘플링하고, 다양한 감정으로 리뷰를 생성하고, 필러 작업을 수행하는 데 강력한 효율성을 나타냄을 보여줍니다.

논문 4: 입장: 단순히 주장만 하지 말고 데이터세트 다양성을 측정하세요.

작곡: Dora Zhao, Jerone TA Andrews, Orestis Papakyriakopoulos, Alice Xiang

기관: 스탠포드 대학, 뮌헨 기술 대학, Sony AI


논문 주소: https://arxiv.org/abs/2407.08188

현재 많은 데이터 세트는 다양성이라는 라벨을 붙이고 있지만 실제로는 추상적이고 논쟁의 여지가 있는 사회적 개념을 구현하고 있습니다.

이 작업에서 저자는 135개의 이미지 및 텍스트 데이터 세트의 "다양성"을 분석하여 이 질문을 탐구합니다.

아래에 표시된 것처럼 저자는 사회 과학 이론의 측정 이론을 고려하고 데이터 세트의 다양성을 개념화, 조작 및 평가하기 위한 제안을 제공하는 요소로 활용합니다.

본 연구의 궁극적인 목적은 AI 학자들이 머신러닝 연구, 특히 데이터 세트 구성 과정에서 가치 판단을 통해 속성 데이터에 대해 보다 상세하고 정확한 처리 방법을 채택할 것을 요구하는 것입니다.


논문 5: 생산 언어 모델의 일부를 훔치기

작곡: Nicholas Carlini, Daniel Paleka, Krishnamurthy Dj Dvijotham, Thomas Steinke, Jonathan Hayase, A. 페더 쿠퍼, 캐서린 리, 매튜 자기엘스키, 밀라드 나스르, 아서 코미, 이타이 요나, 에릭 월리스, 데이비드 롤닉, 플로리안 트라메르

기관: ETH Zurich, University of Washington, McGill University, Google DeepMind, OpenAI


논문 주소: https://arxiv.org/abs/2403.06634

이 연구에서 저자는 OpenAI의 ChatGPT 또는 Google의 PaLM-2와 같은 블랙박스 언어 모델에서 정확하고 복잡한 정보를 추출할 수 있는 최초의 모델 도용 공격을 제시합니다.

특히, 이 공격은 일반 API 액세스를 통해 Transformer 모델의 내장된 투영 레이어(대칭 조건 하에서)를 재구성할 수 있습니다.

그리고 20달러 미만의 비용으로 OpenAI의 Ada 및 Babbage 언어 모델의 전체 투영 행렬을 추출할 수 있습니다. 이를 통해 두 블랙박스 모델의 숨겨진 크기가 각각 1024와 2048임을 처음으로 확인했습니다.

또한 저자는 gpt-3.5-turbo 모델의 정확한 숨겨진 치수 크기도 복원했습니다. 이번에는 전체 투영 매트릭스의 추출 비용이 US$2,000에 불과했습니다.

마지막으로 저자는 잠재적인 방어 및 완화 조치를 제안하고 향후 작업에 대한 시사점을 논의합니다.


논문 모음: 확률적 볼록 최적화의 정보 복잡도: 일반화 및 기억에 대한 응용

작곡: Idan Attias, Gintare Karolina Dziugaite, Mahdi Haghifam, Roi Livni, Daniel M. Roy

기관: 벤 구리온 대학교, 노스이스턴 대학교, 텔아비브 대학교, 토론토 대학교, 벡터 연구소, Google DeepMind


논문 주소: https://arxiv.org/abs/2402.09327

이 연구에서 저자는 확률론적 볼록 최적화 문제(SCO)의 맥락에서 메모와 학습 간의 상호 작용을 연구합니다.

첫째, 메모이제이션은 훈련 데이터 포인트에 대한 정보를 공개하는 학습 알고리즘으로 정의됩니다. 그런 다음 조건부 상호 정보(CMI) 프레임워크를 사용하여 수량화합니다. 따라서 학습 알고리즘의 정확성과 CMI 간의 균형에 대한 정확한 설명이 달성됩니다.

결과는 L^2 Lipschitz 경계 설정과 강한 볼록성 조건에서 초과 오류 ε가 있는 각 학습자의 CMI가 각각 Ω(1/ε^2) 및 Ω(1/ε)에서 하한을 가짐을 보여줍니다.

또한 저자는 특정 SCO 문제에서 대부분의 훈련 샘플을 정확하게 식별할 수 있는 공격자를 설계함으로써 SCO 학습 문제에서 메모의 중요한 역할을 보여줍니다.

마지막으로 저자는 SCO 문제에서 CMI 기반 일반화 범위의 한계 및 샘플 비압축성과 같은 몇 가지 중요한 의미를 인용합니다.

제목: Position: 대규모 공개 사전 학습을 통한 차등적 개인 정보 보호 학습에 대한 고려 사항

저자: Florian Tramèr, Gautam Kamath, Nicholas Carlini

기관: ETH Zurich, 워털루 대학교, 벡터 연구소, Google DeepMind


논문 주소: https://arxiv.org/abs/2212.06470

대규모 공개 데이터세트에 대해 사전 훈련된 비공개 모델의 전이 학습 기능을 활용하면 차등 비공개 기계 학습의 성능이 크게 향상될 수 있습니다.

이 연구에서 저자는 웹에서 스크랩한 대규모 데이터 세트를 사용하는 것이 차등 개인 정보 보호와 일치하는지 여부에 대해 의문을 제기합니다. 또한 네트워크 데이터에 대해 사전 훈련된 이러한 모델을 "비공개"라고 부르는 것은 차등 개인 정보 보호 개념에 대한 대중의 신뢰를 약화시키는 등 많은 해를 끼칠 수 있다고 경고했습니다.

공개 데이터 사용에 대한 개인 정보 보호 고려 사항 외에도 저자는 이 접근 방식의 실용성에 대해 추가로 의문을 제기합니다.

사전 훈련의 영향은 최종 사용자가 자신의 장치에서 실행하기에는 너무 큰 모델의 경우 특히 두드러집니다. 이를 위해서는 더 큰 계산 능력을 갖춘 제3자에게 개인 데이터를 아웃소싱해야 하기 때문에 이러한 모델을 배포하면 개인 정보 보호가 완전히 손실될 수 있습니다.

마지막으로 저자는 공개 사전 훈련이 더욱 대중화되고 강력해짐에 따라 개인 정보 보호 학습 분야의 잠재적인 개발 경로에 대해 논의합니다.

논문 8: 보다 설득력 있는 LLM을 통한 토론은 보다 진실한 답변으로 이어집니다.

작곡: Akbir Khan, John Hughes, Dan Valentine, Laura Ruis, Kshitij Sachan, Ansh Radhakrishnan, Edward Grefenstette, Samuel R. Bowman, Tim Rocktäschel, Ethan Perez

기관: University College London, Speechmatics, MATS, Anthropic, FAR AI


논문 주소: https://arxiv.org/abs/2402.06782

현재 일반적으로 사용되는 LLM 정렬 방법은 수동으로 주석이 달린 데이터에 크게 의존합니다.

그러나 모델이 더욱 복잡해짐에 따라 인간의 전문 지식을 능가하게 되고 인간 평가자의 역할은 비전문가 감독 전문가의 역할로 진화하게 됩니다.

이를 바탕으로 저자는 '약한 모델이 더 강한 모델의 정확성을 평가할 수 있는가?'라는 질문을 제기했습니다.

설계상 더 강한 모델(전문가)은 질문에 답하는 데 필요한 정보를 갖고 있는 반면, 약한 모델(비전문가)은 이 정보가 부족합니다.

평가 방법은 전문가가 답변을 선택하는 것이 아니라 두 명의 LLM 전문가가 서로 다른 답변을 옹호하는 토론입니다.


결과는 토론이 지속적으로 비전문가 모델과 인간이 질문에 더 잘 답변하는 데 도움이 되어 각각 76%와 88%의 정확도를 달성한 것으로 나타났습니다(기준선은 각각 48%와 60%).

또한, 감독되지 않은 수단을 통해 전문 토론자의 설득력을 최적화하면 비전문가가 토론에서 진실을 식별하는 능력이 향상됩니다.


논문 9: Genie: 생성적 상호작용 환경

작곡: Jake Bruce, Michael Dennis, Ashley Edwards, Jack Parker-Holder, Yuge Shi, Edward Hughes, Matthew Lai, Aditi Mavalankar, Richie Steigerwald, Chris Apps, Yusuf Aytar, Sarah Bechtle, Feryal Behbahani, Stephanie Chan, Nicolas Heess, Lucy 곤잘레스, 사이먼 오신데로, 셰르질 오자이어, 스콧 리드, 징웨이 장, 콘라드 졸나, 제프 클룬, 난도 데 프레이타스, 새틴더 싱, 팀 록태셸

기관: 컬럼비아 대학교, Google DeepMind


논문 주소: https://arxiv.org/pdf/2402.15391

Google DeepMind 팀이 출시한 기본 세계 모델 - Genie "Elf".

이미지, 사진, 스케치를 통해 끝없는 세계를 만들어낼 수 있습니다.


Genie의 놀라운 점은 라벨이 지정되지 않은 200,000시간의 인터넷 동영상을 통해 학습하고 감독 없이 훈련했다는 것입니다.

액션 주석 없이도 주인공이 누구인지 판단하고 생성된 세계에서 사용자에게 주인공을 제어할 수 있는 권한을 부여하는 것이 가능합니다.

구체적으로 잠재 동작 모델, 비디오 분할기 및 자동 회귀 동적 모델의 세 가지 핵심 구성 요소를 통해 구현됩니다.


결과적으로 학습된 잠재 행동 공간은 사용자 상호 작용을 활성화할 뿐만 아니라 에이전트가 보이지 않는 비디오에서 행동을 모방하도록 훈련하는 데에도 도움이 됩니다.

전체적으로 Genie는 미래의 일반 에이전트를 육성하고 대화형 생성 환경의 환경을 재구성하는 새로운 방법을 제시합니다.

논문 10: VideoPoet: 제로샷 비디오 생성을 위한 대규모 언어 모델

작곡: Dan Kondratyuk, Lijun Yu, Xiuye ​​Gu, José Lezama, Jonathan Huang, Grant Schindler, Rachel Hornung, Vighnesh Birodkar, Jimmy Yan, Ming-Chang Chiu, Krishna Somandepalli, Hassan Akbari, Yair Alon, Yong Cheng, Josh Dillon, Agrim 굽타, 미라 한, 안자 하우스, 데이비드 헨돈, 알론소 마르티네즈, 데이비드 미넨, 미카일 시로텐코, 손기혁, 양쉬안, 하트위그 아담, 양밍수안, 이르판 에사, 휘성 왕, 데이비드 A. 로스, 브라이언 세이볼드, 루 지앙

기관: 카네기멜론대학교, 구글


논문 주소: https://arxiv.org/pdf/2312.14125

Sora 출시에 앞서 Google과 CMU 팀은 2023년 12월 기술 로드맵에서 Sora와 유사한 동영상 생성 기술인 VideoPoet을 출시했습니다.

VideoPoet은 한 번에 10초 분량의 매우 길고 일관적인 대형 액션 비디오를 생성할 수 있으며, 비디오를 생성하는 데 특정 데이터가 필요하지 않습니다.


특히 VideoPoet에는 주로 다음 구성 요소가 포함됩니다.

- 사전 훈련된 MAGVIT V2 비디오 토크나이저 및 SoundStream 오디오 토크나이저는 다양한 길이의 이미지, 비디오 및 오디오 클립을 통합된 어휘의 개별 코드 시퀀스로 변환할 수 있습니다. 이러한 코드는 텍스트 언어 모델과 호환되며 텍스트와 같은 다른 양식과 쉽게 결합될 수 있습니다.

- 자동 회귀 언어 모델은 비디오, 이미지, 오디오 및 텍스트 간의 교차 모달 학습을 수행하고 자동 회귀 방식으로 시퀀스의 다음 비디오 또는 오디오 토큰을 예측할 수 있습니다.

- 텍스트를 비디오로, 텍스트를 이미지로, 이미지를 비디오로, 비디오 프레임 연속, 비디오 복구/확장, 비디오 스타일화 및 비디오를 오디오로 등을 포함하여 다양한 다중 모드 생성 학습 목표가 대규모 언어 모델 훈련 프레임워크에 도입됩니다. . 또한 이러한 작업을 서로 결합하여 추가적인 제로 샘플 기능(예: 텍스트를 오디오로 변환)을 달성할 수 있습니다.


주요 모델과 달리 VideoPoet은 확산 모델을 기반으로 하지 않고 T2V, V2A 및 기타 기능을 가질 수 있는 대규모 다중 모드 모델을 기반으로 합니다.

간단히 말해서 VideoPoet에는 세 가지 주요 장점이 있습니다: 더 긴 비디오 생성, 보다 정확한 제어 달성, 강력한 카메라 움직임입니다.


최우수 리뷰어상

무엇보다 ICML 2024 컨퍼런스에서는 베스트 리뷰어상(Best Reviewer Award)도 발표됐다.


참고자료:

https://x.com/icmlconf/status/1815646373791842545

https://x.com/icmlconf/status/1815646856241672211