[recruit] SKT AI Fellowship 3기 모집

  • 상세 페이지: https://www.sktaifellowship.com/
  • 지원 자격
    • AI 기술 개발에 관심이 있거나 경험이 있는 대학(원)생 누구나
    • 3인 1팀 또는 2인 1팀으로 구성하여 지원
  • 지원 혜택
    • 정규 채용 지원 시 서류 전형 우대
    • SKT 현업 개발자의 멘토링
    • 과제 수행을 위한 연구비 600만원
    • 최종 우수 프로젝트 상금 400만원
      (최우수팀 400만원, 우수팀 300만원)
    • SK그룹 주요 기술 행사 초청
  • 주요 일정
    • 지원 접수: 04/15(목) – 05/16(일) 자정까지
    • 서류 결과 발표: 05/25(화)
    • 온라인 인터뷰/PT 심사: 05/31(월)
    • 3기 오리엔테이션: 06/04(금)
    • 중간 리뷰: 8월
    • 프로젝트 최종 발표: 11월 초
  • 연구 과제
    • 서비스 로봇용 신규 Vision AI 응용 기술 개발
    • 지능형 Data 검색 엔진 개발
    • GAN으로 생성된 거짓 영상 판별 기술 개발
    • Smart Factory 서비스를 위한 진동/압력/온도 센서의 Anomaly Detection 개발
    • 5GX MEC 기반 Vision AI 응용 모델 개발
    • Self-supervised Learning on Billion Unlabeled Image Data 및 Full Stack Product
    • AI 기반 카메라 위치 추정 및 광고판/간판 검출 기술 연구
    • KoBERT/KoGPT/KoBART 기반 언어처리 Application 개발
    • Kinect 데이터 기반 스마트 물류 자동인식 기술 개발
    • Multi-modal 감정 인식 AI 모델 개발
    • AI 기반 고 디지털 미디어 복원 기술 개발

[seminar] A review of on-device fully neural end-to-end speech recognition and synthesis algorithms

  • 연사: Dr. Chanwoo Kim (Vice President, Samsung)
    http://www.cs.cmu.edu/~chanwook/
  • 방식: 비대면 (webex)
  • 주소: https://dongguk.webex.com/dongguk/j.php?MTID=m76990a14d544ddb14ad59f8ed6638d5d
  • 비밀번호: aixx
  • 초록: In this talk, we review various end-to-end automatic speech recognition and speech synthesis algorithms and their optimization techniques for on-device applications. Conventional speech recognition systems comprise a large number of discrete components such as an acoustic model, a language model, a pronunciation model, a text-normalizer, an inverse-text normalizer, a decoder based on a Weighted Finite-State Transducer (WFST), and so on. To obtain sufficiently high speech recognition accuracy with such conventional speech recognition systems, a very large language model (up to 100 GB) is usually needed. Hence, the corresponding WFST size becomes enormous, which prohibits their on-device implementation. Recently, fully neural network end-to-end speech recognition algorithms have been proposed. Examples include speech recognition systems based on Connectionist Temporal Classification (CTC), Recurrent Neural Network Transducer (RNN-T), Attention-based Encoder-Decoder models (AED), Monotonic Chunk-wise Attention (MoChA), transformer-based speech recognition systems, and so on. The inverse process of speech recognition is speech synthesis where a text sequence is converted into a waveform. Conventional speech synthesizers are usually based on parametric or concatenative approaches. Even though Text-to-Speech (TTS) systems based on the concatenative approaches have shown relatively good sound quality, they cannot be easily employed for on-device applications because of their immense size. Recently, neural speech synthesis approaches based on Tacotron and Wavenet started a new era of TTS with significantly better speech quality. More recently, vocoders based on LPCnet require significantly smaller computation than Wavenet, which makes it feasible to run these algorithms on on-device platforms. These fully neural network-based systems require much smaller memory footprints compared to conventional algorithms.

[seminar] Toward Automatic Math Word Problem Solving

  • 연사: Dr.Chin-Yew Lin (Microsoft)
    https://www.microsoft.com/en-us/research/people/cyl/
  • 방식: 비대면 (webex)
  • 주소: https://dongguk.webex.com/dongguk/j.php?MTID=mf0fe51d4943a75e0335e8b64b1ec3b37
  • 비밀번호: aixx
  • 초록: Computer programs can complete many tasks much more effectively and efficiently than human beings, such as calculating the product of two large numbers, or finding all occurrences of a string in a long text. However, the performance of computers on many intelligent tasks is still low. For example, in a chatting scenario, computers often generate irrelevant or incorrect responses; we can easily find amusing results in automatic machine translations; and it is still a very challenging task for state-of-the-art computer programs to solve even primary-school-level math word problems. As an exploration project in grounded and executable semantic parsing and an effort to push toward real world knowledge computing, the SigmaDolphin project at MSRA aims to build an intelligent computer system that can automatically solve math word problems. In this talk, I will summarize our findings in addressing the three major challenges of math word problem solving: dataset creation, math word problem understanding and math equation generation.

[seminar] Responsible Data Use in the context of Explainable AI

  • 초록: Responsible Data Use is becoming increasingly important for all businesses that manage data and for LinkedIn where trust is key, we are taking Responsible Data Use very seriously, from protecting members, to privacy, to data governance, and explainable AI. I will in this talk first provide an overview of LinkedIn and Data Science at LinkedIn. I will then briefly cover what responsible data use is and focus on the area of explainable AI and describe our end-to-end solution that is now being used in production for some of our internal products. The emphasis on this deep dive is to communicate what it takes to get such work into production beyond the main algorithms and theory.

[seminar] Commonsense Knowledge in AI

  • 연사: Prof. Henry Liberman
  • 소속: MIT
  • 초록: Despite all the recent successes of AI, computers still struggle to capture simple knowledge about people and everyday life — what we call “commonsense” knowledge. Commonsense knowledge underlies our ability to understand language and perform problem solving. Commonsense knowledge is different from “factual” knowledge, as you might find in Wikipedia or encyclopedias. Commonsense reasoning is also different from probabilistic reasoning, as humans (as far as we know) perform commonsense reasoning without the counting operations inherent in probability. Commonsense reasoning is about plausibility rather than truth per se, and is best performed by analogical reasoning. I will describe efforts to collect commonsense knowledge, to reason with it, and to synthesize both commonsense and probabilistic approaches. Commonsense knowledge is important in user interfaces for intelligent agents, for sensible default behavior for interfaces, and for explanation and debugging.

[seminar] Expression recognition ≠ emotion understanding: Challenges confronting the field of affective computing

  • 연사: Prof. Jon Gratch
  • 소속: University of Southern California
  • 주제: Expression recognition ≠ emotion understanding: Challenges confronting the field of affective computing
  • 초록: Many assume that a person’s emotional state can be accurately inferred by surface cues such as facial expressions and voice quality, or through physiological signals such as skin conductance or heart rate variability. Indeed, this assumption is reflected in many commercial “affect recognition” tools. For example, companies provide software that promises to “understand how your customers and viewers feel when they can’t or won’t say so themselves.” However, research in in affective science highlights that the connection between surface cues, like facial expressions, and feelings of emotion are quite weak and highly context-specific. Even worse, these methods often fail to correctly classify these surface cues outside pristine laboratory conditions. In this talk, I will review some of the biases and potential solutions for expression recognition. I will then discuss how to move from expressions to understanding. Along the way, I will emphasize the problematic nature of the term “emotion recognition”: It leads users to over generalize the capabilities of the technology (in that expressions don’t necessarily indicate emotion) but also undersell its power (in that expressions can indication important information about many things besides emotion).

[recruit] (주)엘로이랩 인공지능 연구원 채용

㈜엘로이랩은 2020년에 설립된 회사로 연구개발 중심의 AI 스타트업입니다. 서울특별시 마포구 마포대로 122에 위치하고 있으며, “제조공장을 AI 기술로 혁신하는 솔루션” 사업을 합니다. 저희는 “사람은 더 사람다움에 집중할수 있도록…” 이라는 비전을 가지고 사람들이 어렵고 힘든 일을 대신하는 AI기술을 개발하는 팀입니다. 그냥 직원이 아닌 같이 성장할 동반자를 찾습니다.

  • 주소 : 서울시 마포구
  • 지원 서류 : 이력서, 포트폴리오, 논문 등 (자유 양식)
  • 지원 메일 : yks@elroilab.com

모집부문: AI CV 연구원

  • 담당업무
    • AI 초분광 솔루션 개발: 인공지능을 이용하여 초분광 이미지(HSI)를 분석 후 공정 중 발생 이물질 검출 솔루션
  • 모집인원: 0명
  • 세부조건
    • 신입: 대학 4년 졸업(예정)
    • 필요역량
      • C/C++, python
      • Keras, Tensorflow, Pytorch etc.
      • Linux 환경 개발 경험
      • 영상처리 머신러닝 및 딥러닝 관련 프로젝트 경험자
      • 딥러닝 기반 지식 및 경험
    • 중요조건
      • Self-motivation
      • 도전, 노력, 인내하여 열정을 가지고 실행력이 강한 사람
    • 우대조건
      • 영어 회화가능자
      • 기존 머신러닝 및 딥러닝 개선 성과 및 논문 (연구성과)
      • 석, 박사 학위 수여자
      • 관련 학과 전공자
      • 운전가능자
      • 초분광 이미지 관련 프로젝트 경험
      • 강화학습 관심도 있으신 분

모집부문: AI(강화학습) SW 개발자

  • 담당업무
    • AI 머신정밀제어 개발: 강화학습(Reinforcement learning)을 이용한 머신 정밀 제어 알고리즘 개발
    • 가상학습 환경 구축: AI + 머신(로봇, 공작기계, 반도체 장비 등) 연동 개발
  • 모집인원: 0명
  • 세부조건
    • 대졸 이상 (4년)
    • 필요역량
      • C/C++, python
      • Keras, Tensorflow, Pytorch etc.
      • Linux 환경 개발 경험
      • 강화학습(RL) 논문 퍼블리싱 및 프로젝트 경험 (PPO, TRPO, DQN, A3C등 강화학습 알고리즘 이해 및 구현 경험자)
      • 딥러닝 기반 지식 및 경험
      • 아키텍처 설계 / 개발
    • 중요조건
      • Self-motivation
      • 도전, 노력, 인내하여 열정을 가지고 실행력이 강한 사람
    • 우대조건
      • 영어 회화가능자
      • 석사, 박사 학위 수여자
      • 관련 학과 전공자
      • 운전가능자
      • ROS 활용 경험
      • Control 등 Robotics 지식
      • 반도체 장비, 공작기계, 로봇제어 개발 경험
      • 로봇,머신 등 제어에서 AI로 전향한 개발자

[news] 컴공과 졸업생 뽑아도…기업들 “1년은 다시 가르쳐야” 불만

https://www.hankyung.com/society/article/2021030304331

비상 걸린 AI 교육
산업현장 못 따라가는 대학 (下)

학사급 AI 엔지니어 필요한데
대학선 기초 수준의 수업 진행

학문과 산업현장의 기술 수요 괴리는 어제오늘 일이 아니다. 인공지능(AI) 인재의 산실인 컴퓨터 전공도 예외는 아니다. ‘기본기’를 강조하며 커리큘럼 혁신을 꺼리는 학교 측과, “처음부터 다시 가르쳐야 하는 형편”이라는 기업 간 시각차가 AI시대를 맞아 더 심화된 것이다.

컴공과 졸업생 뽑아도…기업들 "1년은 다시 가르쳐야" 불만

‘자고 일어나면 달라져 있다’는 말이 나올 정도로 AI 기술의 진화는 가속화하고 있다. 국내 주요 대학 컴퓨터공학과의 전공 구성부터가 그렇다. 대다수가 기초 수준 선택과목으로 AI 수업을 편성하고 있다. 서울대는 올해 1학기 ‘딥러닝의 기초’ 과목을, KAIST는 ‘인공지능개론’ ‘기계학습’ 등을 전공선택으로 개설했다. 고려대 성균관대 연세대 등도 ‘딥러닝’ ‘기계학습’ ‘인공지능개론’ 강좌를 열었다. 다만 개설 과목 수는 대부분 1개에서 3개 정도로 나타났다. AI를 바라보는 ‘관심’의 정도가 드러난 셈이다.

대학들이 AI 관련 커리큘럼을 고민하기 시작한 건 2016년 ‘알파고 사태’ 때부터다. 상당한 시간이 흘렀음에도 강좌 개설이 미미한 건 운신의 폭이 좁은 국내 컴퓨터공학과 커리큘럼의 특성이 숨어 있다. ‘공교육 부실’의 여파로 기초도 안 되는 입학생이 대다수이다 보니 대학 역시 AI 같은 심화 내용을 반영할 여유가 없다는 것이다.

한 수도권 대학 컴퓨터공학과 교수는 “대학 입학 전까지 중·고교에서 SW에 관해 제대로 배우는 것이 없으니, 매년 코딩 연습 같은 기초에 시간을 할애해야 한다”고 말했다. 2학년까지 프로그래밍 기초와 하드웨어 과목 등 기본기를 수강하고 전공필수까지 챙기다 보면 졸업까지 자유롭게 선택해서 들을 수 있는 전공 강좌는 채 5개가 되지 않는 경우도 허다하다.

교수 인력과 인프라의 문제도 따른다. AI 교육은 고사하고, 컴퓨터 공학 교육의 질까지 위협받는 수준이다.

최근 수도권에선 고려대의 데이터과학과, 한양대의 데이터사이언스학과 등 첨단 산업 학과의 신설이 잇따르고 있다. 정부 주도 하에 주요 대학의 ‘AI대학원’ 역시 속속 문을 열고 있는 상황이다. 대부분 SW가 중심이 되는 학위과정들이다. 하지만 늘어나는 교육 과정의 속도와 대비해 담당 교수들의 수는 크게 늘지 못하고 있다는 것이 중론이다. 투자가 산발적으로 진행되고 있다는 비판이 거세지고 있다.

외려 기존 컴퓨터공학과 교수를 겸임이나 파견 형태로 앉히는 경우도 빈번하다. 서울대는 1년 사이 AI 유관 전공이 폭발적으로 생겨나며 업무가 과중되고 있다. 서울대 공과대학의 한 관계자는 “최근 AI 협동과정, AI 연합전공, AI반도체 과정 등 셀 수 없는 과정이 생겨났는데, 교수 인력 등은 더 뽑지 않으며 본래 컴퓨터공학과 강의까지 영향이 미치는 상황”이라고 전했다.

산업 현장의 불만은 갈수록 커지고 있다. 한 정보기술(IT) 대기업 인사담당 임원은 “사실 원천 기술을 개발하는 특출난 인재보다 AI 솔루션을 이해하고 관리하는 수준의 ‘AI 엔지니어’와 기술을 이해하는 영업직군이 더 많이 필요하다”며 “최소 6개월에서 1년은 다시 가르친다고 생각하며 뽑는다”고 했다.

대기업들의 재직자 대상 ‘AI 재교육’은 확대 추세다. 현대모비스의 ‘AIM 프로젝트’는 약 5개월간 기존 업무를 배제시키고 전문기관 교육과 현장 AI 프로젝트를 수행하게끔 한다. LG 역시 100명 가량의 인원을 사내 교육 기관인 LG 인화원에서 교육하는 ‘AI 고급 문제 해결 과정’을 진행한다. ‘맞춤형 인재’를 자체적으로 길러낸다는 목표다.

학부생들은 심지어 대학원 AI 강좌까지 찾아나서고 있다. 대학과 기업 사이의 간극에서, 스스로 실력과 인재상을 갖추기 위한 ‘자구책’을 마련한 것이다. 한 컴퓨터공학과 교수는 “일부 AI 과목은 학부생이 30%도 차지한다”며 “학부에 AI 전문 강좌가 적다보니 매 학기 벌어지는 현상”이라고 밝혔다.

이시은 기자 see@hankyung.com