Skip to content

Commit b8972bf

Browse files
authored
Merge pull request #64 from maum-ai/update-publication-with-internship2
Update publication with internship2
2 parents 4ca6b33 + 681a31b commit b8972bf

File tree

7 files changed

+65
-31
lines changed

7 files changed

+65
-31
lines changed

src/components/PublicationFeatures/index.js

Lines changed: 10 additions & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -97,6 +97,14 @@ export function MiscItem({link, customName="Misc"}) {
9797
);
9898
}
9999

100+
export function LeaderboardItem({link, customName="Leaderboard"}) {
101+
return (
102+
<p className={styles.leaderboard}>
103+
<a href={link} target="_blank" rel="noopener noreferrer">{customName}</a>
104+
</p>
105+
);
106+
}
107+
100108

101109

102110
export default {
@@ -106,5 +114,6 @@ export default {
106114
PaperDescription: PaperDescription,
107115
GithubItem: GithubItem,
108116
DemoItem: DemoItem,
109-
MiscItem: MiscItem
117+
MiscItem: MiscItem,
118+
LeaderboardItem: LeaderboardItem,
110119
}

src/pages/careers.mdx

Lines changed: 12 additions & 12 deletions
Original file line numberDiff line numberDiff line change
@@ -23,7 +23,7 @@ import figHome from './image/maum-home.png';
2323

2424
지원 가능한 직군은 아래와 같습니다.
2525
- AI Scientist (Brain팀)
26-
- ML Engineer (Brain팀)
26+
- ~~ML Engineer (Brain팀)~~ (현재 ML Engineer는 지원을 받고 있지 않습니다.)
2727

2828
문의 사항이 있을 경우, [email protected] 로 문의주시면 최대한 빠르게 답변드릴 수 있도록 하겠습니다.
2929

@@ -46,18 +46,18 @@ import figHome from './image/maum-home.png';
4646
### 핵심 업무
4747

4848
<Tabs groupId="job-position">
49-
<TabItem value="requirements" label="ML Engineer" default>
49+
<TabItem value="requirements" label="ML Engineer">
5050

5151
- ML/DL 모델을 효율적으로 서빙하기 위한 시스템 개발 및 설계
5252
- ML/DL 모델의 학습 및 서빙 성능을 높이는 최신 최적화/양자화 기법 탐색 및 적용
5353
- 기존 학습/서빙 시스템의 성능을 높이기 위한 개선 방안 연구 및 구현
5454

5555
</TabItem>
56-
<TabItem value="ai-scientist" label="AI Scientist">
56+
<TabItem value="ai-scientist" label="AI Scientist" default>
5757

5858
- 현실 세계의 문제를 해결하기 위한 최적의 ML/DL 알고리즘을 설계
5959
- 기존 알고리즘 및 모델의 상업적 가치와 성능을 높이기 위한 개선 연구
60-
- 주 연구 분야: Audio(STT, TTS), Vision(Face generation), NLP(LLM, Retrieval, Dialog)
60+
- 주 연구 분야: Audio(STT, TTS), Vision(VLM, VLA), NLP(LLM, Retrieval, Dialog)
6161

6262
</TabItem>
6363
</Tabs>
@@ -68,14 +68,14 @@ import figHome from './image/maum-home.png';
6868
### 자격 요건
6969

7070
<Tabs groupId="job-position">
71-
<TabItem value="requirements" label="ML Engineer" default>
71+
<TabItem value="requirements" label="ML Engineer">
7272

7373
- Python, C++에 능숙하여 원하는 것을 구현할 수 있는 능력
7474
- Docker를 사용하여 서비스를 구성할 수 있는 능력
7575
- PyTorch 기반의 프레임워크로 작성된 코드를 이해하고 모델 아키텍처를 파악할 수 있는 능력
7676

7777
</TabItem>
78-
<TabItem value="ai-scientist" label="AI Scientist">
78+
<TabItem value="ai-scientist" label="AI Scientist" default>
7979

8080
- ML/DL 알고리즘을 깊이 이해할 수 있는 수준의 수학적 능력 및 모델링 능력
8181
- TensorFlow, PyTorch 등 DL framework 활용 및 모델 구현에 자유로울 수 있는 수준의 개발 능력
@@ -90,14 +90,14 @@ import figHome from './image/maum-home.png';
9090
### 우대 요건
9191

9292
<Tabs groupId="job-position">
93-
<TabItem value="requirements" label="ML Engineer" default>
93+
<TabItem value="requirements" label="ML Engineer">
9494

9595
- 유관 전공 석사 이상의 경력 또는 관련 학회 논문 제출 경험
9696
- OpenMP, MPI, CUDA 등 multi-core CPU나 가속기를 활용하여 프로그램의 성능을 최적화 해본 경험
9797
- ONNX, ONNX Runtime을 사용해 PyTorch 모델을 변환하고 edge device에서 실행 해본 경험
9898

9999
</TabItem>
100-
<TabItem value="ai-scientist" label="AI Scientist">
100+
<TabItem value="ai-scientist" label="AI Scientist" default>
101101

102102
- 유관 전공 석사 이상의 경력 또는 관련 학회 논문 제출 경험
103103
- 금융, 의료, 교육, 패션 등 산업별 실제 데이터 기반 AI 프로젝트 경험
@@ -123,28 +123,28 @@ Brain팀은 시차출퇴근제를 진행하고 있습니다.
123123
**코어타임은 10시 30분부터 17시까지**로, 오전 8시 ~ 오전 10시 30분 사이에 각자가 정한 시간에 출근합니다.
124124
**산업기능요원, 전문연구요원으로 복무하시는 분들도 시차출퇴근제 적용이 가능**합니다!
125125

126-
병역이 아니신 정규직 분들은 재택과 병행하여 하이브리드 근무가 가능합니다. 😉
126+
병역이 아니신 정규직 분들은 **재택과 병행**하여 하이브리드 근무가 가능합니다. 😉
127127

128128
<br/>
129129

130130
### 근무 환경
131131

132132
Brain팀 구성원에게는 **입사 시 GPU 탑재 데스크탑부터 MacBook까지 원하는 기기를 지원**해드리며, **모니터 및 모니터암을 기본으로 제공**하여 Brain팀 구성원분들의 목 건강도 책임집니다! 💪
133133

134-
Brain팀에는 **연구용으로만 On-premise로 V100 10대, A100 30대, H100 64대 이상을 운용**하고 있고, 인원당 On-premise GPU를 최소 2대 이상 사용하실 수 있게끔 연구 및 개발환경을 구축하고 있습니다. (2024년 06월 기준)
134+
Brain팀에는 **연구용으로만 On-premise로 V100 10대, A100 30대, H100 96대 이상을 운용**하고 있고, 인원당 On-premise GPU를 최소 2대 이상 사용하실 수 있게끔 연구 및 개발환경을 구축하고 있습니다. (2025년 5월 기준)
135135

136136
<img className={styles.figCenter} src={figBrainRoom} alt="brain-room" />
137137

138138
<br/>
139139

140-
Brain팀 AI Scientist는 회사의 사업 방향에 따른 연구인 **Strategic Research**와 개인 관심 주제에 따른 자유 연구인 **General Research****일과 중 절반씩 진행**하는 것을 권장하는 등 최적의 연구 환경을 마련해드리기 위해 노력하고 있습니다.
140+
Brain팀 AI Scientist는 회사의 사업 방향에 따른 연구인 **Strategic Research**~~개인 관심 주제에 따른 자유 연구인 **General Research**~~(회사 사정에 따라 현재는 중단) **일과 중 절반씩 진행**하는 것을 권장하는 등 최적의 연구 환경을 마련해드리기 위해 노력하고 있습니다.
141141

142142
**NeurIPS, ICLR, CVPR, ECCV, Interspeech, ACL 등 학회 참석 및 학회 논문 제출**을 희망하실 경우, 적극적으로 지원해드리고 있습니다! 💸 (현재까지 채택된 논문 현황에 대해서는 **[Publications](/publications)** 탭을 참고해주세요!)
143143
<br/>
144144

145145
<img className={styles.figCenter} src={figHome} alt="home" />
146146

147-
maum.ai는 전 직원 **점심 식사 식대를 제공**합니다.(1일 16000원) 판교 사옥 근처의 많은 식당을 자유롭게 이용할 수 있습니다!
147+
maum.ai는 전 직원 **점심 식사 식대를 제공**합니다.(1일 10000원) 판교 사옥 근처의 많은 식당을 자유롭게 이용할 수 있습니다!
148148

149149
또한 사옥 내에도 로봇 바리스타가 비치되어 있어 자유롭게 음료 음용이 가능합니다. 🍹
150150

src/pages/internship-season1.mdx

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -1,6 +1,6 @@
11
---
2-
title: maum.ai Brain팀 채용
3-
description: maum.ai Brain팀에 지원하세요!
2+
title: maum.ai Brain팀 체험형 인턴 채용
3+
description: maum.ai Brain팀 체험형 인턴에 지원하세요!
44
image: img/maumai_Symbol.png
55
---
66

src/pages/internship-season2.mdx

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -1,6 +1,6 @@
11
---
2-
title: maum.ai Brain팀 채용
3-
description: maum.ai Brain팀에 지원하세요!
2+
title: maum.ai Brain팀 체험형 인턴 채용
3+
description: maum.ai Brain팀 체험형 인턴에 지원하세요!
44
image: img/maumai_Symbol.png
55
---
66

src/pages/internship.mdx

Lines changed: 9 additions & 12 deletions
Original file line numberDiff line numberDiff line change
@@ -1,6 +1,6 @@
11
---
2-
title: maum.ai Brain팀 채용
3-
description: maum.ai Brain팀에 지원하세요!
2+
title: maum.ai Brain팀 체험형 인턴 채용
3+
description: maum.ai Brain팀 체험형 인턴에 지원하세요!
44
image: img/maumai_Symbol.png
55
---
66

@@ -19,19 +19,16 @@ import figGPU from './image/h100-gpu.png';
1919

2020
<br/>
2121

22-
현재 2024년 겨울방학 Brain팀 체험형 인턴 2기 모집 중에 있습니다. 기존에 진행하던 NLP 주제에서 확장해, Audio, MLE 2개의 주제가 이번년도에는 새로 생겼습니다. 자세한 내용은 아래 링크를 참고해주세요.
23-
24-
<div className={styles.buttons}>
25-
<Link
26-
className="button button--primary button--lg"
27-
color="red"
28-
to="/internship-season2">
29-
Brain팀 체험형 인턴 2기 지원하러 가기✍
30-
</Link>
31-
</div>
22+
2024년 겨울방학 Brain팀 체험형 인턴 2기를 포함한 모든 인턴 활동이 현재 종료되었습니다. <br/>
3223

3324
## 과거 지원페이지
3425

26+
> 2024년 겨울방학 Brain팀 체험형 인턴 2기<br/>
27+
> NLP, Audio, MLE 주제를 중심으로 진행되었습니다.<br/>
28+
> 경쟁률 **95:5**, 최종 합격 총 5명<br/>
29+
> [더 자세히 알아보기](/internship-season2)
30+
3531
> 2024년 여름방학 Brain팀 체험형 인턴 1기<br/>
32+
> NLP (LLM) 주제를 중심으로 진행되었습니다.<br/>
3633
> 경쟁률 **33:3**, 최종 합격 track당 1명씩 총 3명<br/>
3734
> [더 자세히 알아보기](/internship-season1)

src/pages/open-source.mdx

Lines changed: 6 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -16,6 +16,12 @@ import * as features from '@site/src/components/OpenSourceFeatures';
1616

1717
<section id="activities" className={styles.category}>
1818
<ul className={styles.repositories}>
19+
<li>
20+
{/* <features.StarItem userName="maum-ai" repoName="KOFFVQA" /> */}
21+
<features.StarItem userName="maum-ai" repoName="KOFFVQA" />
22+
<features.GithubLinkItem userName="maum-ai" repoName="KOFFVQA" repoNickname="KOFFVQA" />
23+
<features.PaperLinkItem paperLink="https://arxiv.org/abs/2503.23730" title="KOFFVQA: An Objectively Evaluated Free-form VQA Benchmark for Large Vision-Language Models in the Korean Language" />
24+
</li>
1925
<li>
2026
{/* <features.StarItem userName="worv-ai" repoName="CANVAS" /> */}
2127
<features.StarItem userName="worv-ai" repoName="CANVAS" />

src/pages/publications.mdx

Lines changed: 24 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -11,18 +11,40 @@ import * as features from '@site/src/components/PublicationFeatures';
1111
<!-- ![maum.ai Logo](assets/maumai_BI.png) -->
1212
## Publications
1313

14-
### 2024
14+
### 2025
1515
<section id="activities" className={styles.category}>
1616
<ul className={styles.publications}>
1717
<li>
18-
<features.ConferenceItem conference="ICRA Under Review"/>
18+
<features.ConferenceItem conference="ACL Findings"/>
19+
<features.PaperTitle paperLink="https://arxiv.org/abs/2504.14175" title="Hypothetical Documents or Knowledge Leakage? Rethinking LLM-based Query Expansion"/>
20+
<features.AuthorItem authors={["Yejun Yoon", "Jaeyoon Jung", "Seunghyun Yoon", "Kunwoo Park"]} numFirstAuthor={1} isBrainTeam={[false, true, false, false]}/>
21+
<features.PaperDescription preview="Query expansion methods powered by large language models (LLMs) have demonstrated effectiveness in zero-shot retrieval tasks. "
22+
description="These methods assume that LLMs can generate hypothetical documents that, when incorporated into a query vector, enhance the retrieval of real evidence. However, we challenge this assumption by investigating whether knowledge leakage in benchmarks contributes to the observed performance gains. Using fact verification as a testbed, we analyzed whether the generated documents contained information entailed by ground truth evidence and assessed their impact on performance. Our findings indicate that performance improvements occurred consistently only for claims whose generated documents included sentences entailed by ground truth evidence. This suggests that knowledge leakage may be present in these benchmarks, inflating the perceived performance of LLM-based query expansion methods, particularly in real-world scenarios that require retrieving niche or novel knowledge."/>
23+
</li>
24+
<li>
25+
<features.ConferenceItem conference="CVPR Workshop"/>
26+
<features.PaperTitle paperLink="https://arxiv.org/abs/2503.23730" title="KOFFVQA: An Objectively Evaluated Free-form VQA Benchmark for Large Vision-Language Models in the Korean Language"/>
27+
<features.AuthorItem authors={["Yoonshik Kim", "Jaeyoon Jung"]} numFirstAuthor={4} isBrainTeam={[true, true]}/>
28+
<features.PaperDescription preview="The recent emergence of Large Vision-Language Models(VLMs) has resulted in a variety of different benchmarks for evaluating such models. "
29+
description="Despite this, we observe that most existing evaluation methods suffer from the fact that they either require the model to choose from pre-determined responses, sacrificing open-endedness, or evaluate responses using a judge model, resulting in subjective and unreliable evaluation. In addition, we observe a lack of benchmarks for VLMs in the Korean language, which are necessary as a separate metric from more common English language benchmarks, as the performance of generative language models can differ significantly based on the language being used. Therefore, we present KOFFVQA, a general-purpose free-form visual question answering benchmark in the Korean language for the evaluation of VLMs. Our benchmark consists of 275 carefully crafted questions each paired with an image and grading criteria covering 10 different aspects of VLM performance. The grading criteria eliminate the problem of unreliability by allowing the judge model to grade each response based on a pre-determined set of rules. By defining the evaluation criteria in an objective manner, even a small open-source model can be used to evaluate models on our benchmark reliably. In addition to evaluating a large number of existing VLMs on our benchmark, we also experimentally verify that our method of using pre-existing grading criteria for evaluation is much more reliable than existing methods. Our evaluation code is available at https://github.com/maum-ai/KOFFVQA."/>
30+
<features.GithubItem link="https://github.com/maum-ai/KOFFVQA" />
31+
<features.LeaderboardItem link="https://huggingface.co/spaces/maum-ai/KOFFVQA-Leaderboard" />
32+
</li>
33+
<li>
34+
<features.ConferenceItem conference="ICRA"/>
1935
<features.PaperTitle paperLink="https://arxiv.org/abs/2410.01273" title="CANVAS: Commonsense-Aware Navigation System for Intuitive Human-Robot Interaction"/>
2036
<features.AuthorItem authors={["Suhwan Choi", "Yongjun Cho", "Minchan Kim", "Jaeyoon Jung", "Myunchul Joe", "Yubeen Park", "Minseo Kim", "Sungwoong Kim", "Sungjae Lee", "Hwiseong Park", "Jiwan Chung", "Youngjae Yu"]} numFirstAuthor={4} isBrainTeam={[true, true, true, true, true, false, false, false, false, false, false, false]}/>
2137
<features.PaperDescription preview="Real-life robot navigation involves more than just reaching a destination; it requires optimizing movements while addressing scenario-specific goals. "
2238
description="An intuitive way for humans to express these goals is through abstract cues like verbal commands or rough sketches. Such human guidance may lack details or be noisy. Nonetheless, we expect robots to navigate as intended. For robots to interpret and execute these abstract instructions in line with human expectations, they must share a common understanding of basic navigation concepts with humans. To this end, we introduce CANVAS, a novel framework that combines visual and linguistic instructions for commonsense-aware navigation. Its success is driven by imitation learning, enabling the robot to learn from human navigation behavior. We present COMMAND, a comprehensive dataset with human-annotated navigation results, spanning over 48 hours and 219 km, designed to train commonsense-aware navigation systems in simulated environments. Our experiments show that CANVAS outperforms the strong rule-based system ROS NavStack across all environments, demonstrating superior performance with noisy instructions. Notably, in the orchard environment, where ROS NavStack records a 0% total success rate, CANVAS achieves a total success rate of 67%. CANVAS also closely aligns with human demonstrations and commonsense constraints, even in unseen environments. Furthermore, real-world deployment of CANVAS showcases impressive Sim2Real transfer with a total success rate of 69%, highlighting the potential of learning from human demonstrations in simulated environments for real-world applications."/>
2339
<features.GithubItem link="https://github.com/worv-ai/canvas" />
2440
<features.DemoItem link="https://worv-ai.github.io/canvas/" />
2541
</li>
42+
</ul>
43+
</section>
44+
45+
### 2024
46+
<section id="activities" className={styles.category}>
47+
<ul className={styles.publications}>
2648
<li>
2749
<features.ConferenceItem conference="NeurIPS Workshop OWA (Oral)"/>
2850
<features.PaperTitle paperLink="https://openreview.net/forum?id=U6wyOnPt1U" title="Integrating Visual and Linguistic Instructions for Context-Aware Navigation Agents"/>

0 commit comments

Comments
 (0)