TeamCodeBridge
home
TeamCodeBridge란?
home
👨‍👨‍👦‍👦

해커톤 팀

해커톤팀 구성
ID
팀명
지원분야
담당학생
담당멘토
장원준 멘토
한창훈 멘토
연현중 멘토
편유나 멘토
이준혁 멘토
이나현 멘토
1
일조사사게요
AI
이나현
AI 기반 스미싱 문자 탐지 앱을 제작하려는 기획은 참신하며, 사회적 필요성 측면에서도 매우 우수함. 다만 실제 구현 과정에서는 사용하려는 AI 모델의 작동 방식과 학습 데이터의 타당성에 대해 면밀한 검토가 필요함. 특히 격리된 서버 환경에서 링크를 직접 렌더링하거나 열어 악성 여부를 판단하는 방식은 보안 위험과 높은 리소스 요구로 인해 현실적인 구현에 어려움이 있음. 그럼에도 불구하고 고령자, 저연령층, 디지털 비전문가 등 디지털 소외계층을 위한 보안 프로그램이라는 기획 방향은 매우 적절하며, 큰 사회적 도움이 될 수 있는 가능성 있는 아이디어임. 향후에는 LLM 기반 텍스트 분류 모델을 활용해 스미싱 패턴을 탐지하는 방식을 도입하여 기술적 실현 가능성과 효율성을 높이는 방안도 고려할 수 있음.
먼저 탐지 문제를 정확히 정의하는 것도 중요함. 뭐랄까, 일단 어떤 AI 모델을 썼는지랑 학습 방식을 자세히 안 써줘서 솔직히 불문명 상태임. BERT나RoBERTa 같은 Transformer 기반인지, LSTM/GRU 계열인지 명확히 기입하면 좋을 듯 함. 학습 데이터(정상 SMS vs 스미싱 샘플) 구성방식, 라벨링 가이드라인, tokenization·normalization·positional encoding 같은 전처리 프로세스도 상세히 써주면 좋인 듯 함. 단순 키워드 카운팅만으로는 ‘도박 근절 안내’ 같은 legit 메시지도 오탐(false positive) 날 수 있으니 Docker 컨테이너 샌드박스에서 HeadlessBrowser(Selenium, Puppeteer)로 URL 동적 분석(dynamic analysis)을 하거나, VirusTotal API·URLScan API 같은 위협 인텔리전스 연동을 고민하면 좋을 듯 함. 모바일 환경에서 네트워크 불안정한 상태에서도 동작하도록 TensorFlow Lite·PyTorch Mobile로 양자화(quantization)·pruning 처리하고, Active Learning으로 사용자 리포트 주기적 재학습시키면 실서비스 경쟁력 올라갈 것임.
AI 기반 스미싱 문자 탐지 시스템이라는 아이디어가 매우 좋았음. 또한 실제로 분리된 환경을 이용하여 이를 테스트하고, 성능 검증을 했다는 점이 상당히 인상깊었음. 다만 문제 정의가 명확하지 않았던 탓인지 모델이 사용되는 범위가 일정하거나 명확하지 않았고, 실제로 어떤 모델을 사용했는지에 대한 조원들의 이해 정도가 부족해보임. 다만 이러한 문제 정의 부분을 제외한다면 전체적으로 프로젝트의 완성도도 높고 발전 가능성도 높기 때문에, 앞으로 문제를 어떻게 정의할 지에 대한 고민을 깊게 한다면 조금 더 좋은 프로젝트를 진행할 수 있을 것으로 보임.
AI 기반 스미싱 문자 탐지 앱 제작을 통해 실제 사회 문제 해결을 모색한 점이 돋보이며, 특히 가상환경에서 링크를 직접 열어 스팸 여부를 탐지하는 기법은 창의적인 접근으로 주목됨. 스미싱 피해 사례에 대한 문제의식이 뚜렷하고, 탐지 방식을 구체화하려는 시도 역시 우수함. 향후 조건부확률 기반의 스팸 필터링 알고리즘 등을 적용하여 기술적 완성도를 높이는 방향으로 발전 가능성이 큼.
스미싱이 점점 증가하고 있다는 문제를 제시하고 그 피해는 디지털 소외계층에 더 취약하다는 사실을 실제사례를 조사하여 제시함. 그에 대한 해결책으로 문자를 수사하면 AI가 실시간으로 내용을 분석하여 경고메세지를 전달한다는 AI기반 스미싱 문자탐지 앱을 제작함. 문자를 탐지하는 과정을 단계에 맞게 구성하고 이에 맞는 코드를 적성하려고 노력한 모습이 보임. 시연을 하는 과정에서 스미싱문자를 복사 붙여넣기하는 과정이 있었는데 이러한 과정에서 해당 주소로 접속할 위험성과 같은 세부적인 부분을 더 보완한다면 더 완성도가 높은 결과가 나올 것임.
AI 기반 스미싱 문자 탐지 앱 제작 프로젝트를 통해 문자 피싱이라는 사회적 문제를 명확히 정의하고, 관련 통계 자료를 수집/분석하는 데이터 해석 역량을 보여줌. 일반적인 LLM 기반 텍스트/문맥 분석 기법이 아닌, 스팸 링크 자체를 판별하는 방식으로 접근하여 문제 해결에 있어 창의성과 기술적 차별성을 드러냄. 모델의 정확도를 높이기 위한 판별 기준 고도화 및 이를 정량적으로 입증할 수 있는 데이터 수집과 검증 체계를 함께 고민해본다면 더욱 발전된 결과로 이어질 수 있을 것임.
2
다2기조
IOT
연현중
휠체어 이용자들의 페인포인트를 정확하게 분석하여 소프트웨어와 하드웨어를 융합해 문제를 해결하고자 함. 휠체어 사용자가 애플리케이션을 통해 탑승 희망 여부를 미리 조사하고, 버스가 정류장에 도착하면 차체를 자동으로 기울여 리프트를 스스로 내리는 참신한 아이디어를 제안함. 이를 통해 탑승 시간을 크게 단축시켜 승객과 운전기사 모두에게 편리함과 만족감을 제공하는 프로토타입을 제작함. 시간 제약으로 완벽한 프로토타입을 완성하지는 못했지만, 아이디어 자체가 매우 혁신적이고 실용적이어서 앞으로의 발전과 활약이 기대됨. 또한, 향후 사용자 피드백을 반영한 개선과 실제 버스 시스템과의 연동을 통한 상용화 가능성에도 큰 관심을 가지고 있음.
휠체어 탑승 알림 앱과 자동 리프트 제어 기획은 진짜 괜찮은데, 앱버스 간 메시지 전달 방식이 빠져있어서 솔직히 불명확 상태임. 구현한 기술들에 대해서 어떻게 구현했는지에 대해 명시해주면 좋을 듯 함. 실시간 알림을 안정적으로 구현하려면 MQTT나 WebSocket 같은 경량 메시징 프로토콜을 쓰거나, FCM( Firebase Cloud Messaging)·APNs( Apple Push Notification service) 연동을 명시하면 좋을 듯 함. 또 GPS 기반 지오펜싱(Geofencing)을 도입해서 버스가 정류장 50m 이내로 접근할 때 자동으로 탑승 요청이 전송되는 로직을 설계하면 실서비스에서 편리함이 극대화될 것임. 자동 리프트와 버스 차체 기울임 하드웨어도 좀 더 구체화가 필요함. 유압식(Hydraulic actuator) 혹은 전동 모터(DC motor + gearbox)를 활용한 리프트 제어 방식을 명시하고, IMU(관성측정장치)·초음파 센서(Ultrasonic sensor)·라이더(LiDAR) 등을 조합해 버스와 연석(curbstone) 간 간격을 정밀하게 측정하는 피드백 제어(PID controller) 알고리즘을 설계하면 안전성과 반복 정밀도가 올라갈 듯 함. 이렇게 하면 버스가 기울어지는 각도(roll angle)를 실시간으로 모니터링하면서 자동으로 리프트 높이를 조절할 수 있어야 함. 또한 전체 시스템 통합 측면에서는 ROS(Robot Operating System)나 Embedded Linux 기반의 엣지 컴퓨팅 디바이스(Raspberry Pi, NVIDIA Jetson)로 제어 로직을 통합하고, 클라우드 백엔드(AWS IoT Core, Azure IoT Hub)에 버스 상태·탑승 요청 로그를 저장해서 배차 스케줄링과 연동하면 더욱 확장성 있는 서비스가 될 듯 함. 아울러 장애인 접근성(Accessibility)을 고려해 React Native·Flutter 기반 모바일 UI에 VoiceOver·TalkBack 같은 음성 안내 기능을 넣고, 버튼 크기와 대비(Contrast)를 최적화하면 디지털 약자를 위한 UX도 보완 가능함.
프로젝트의 완성도가 많이 떨어지는 점을 고려하여 평가하였음. 실제 아이디어 즉, 사용자가 있을 때 미리 버스 기사에게 휴대폰을 이용하여 알릴 수 있는 시스템은 상당히 참신하고 발전 가능성이 높다고 생각함. 또한 이를 해결하기 위한 기술적 과제들이 너무 많았지만 이를 순차적으로 정리하고 해결해나가는 과정에서 수준 높은 문제해결력과 통찰력을 확인할 수 있었음. 발표 구성 면에서도 사전 조사를 상당히 많이 하고 프로젝트의 필요성과 정당성을 설득력 있게 전달하려는 모습이 상당히 인상깊었음.
사회적 약자인 휠체어 이용자의 불편함에 주목하여 관련 서비스를 기획·개발함으로써 해커톤 주제에 적합한 문제 해결형 접근을 시도함. 비록 시간적 제약으로 완성에는 이르지 못했지만, 기술 적용에 대한 면밀한 검토와 실제 구현 가능성에 대한 탐색이 이루어진 점에서 우수함. 공공기관 제안도 고려할 수 있을 만큼 사회적 필요성과 실효성이 높은 기획임.
실제논문 자료를 이용하여 저상버스에서 휠체어가 탑승하기 위해서는 시간이 오래걸린다는 점과 다른 승객들이 어려움을 겪는다는 점을 제시함. 그에 따른 페인포인트로 저상버스의 이용률이 상당히 낮은 점을 해결하기 위한 해결방안을 휠체어를 이용하는 고객이 다음버스정류장에서 기다리고 있다는 것을 알려주는 소프트웨어와 리프트 이용시간을 줄일 수 있는 하드웨어 두가지로 나누어서 해결방안을 제시함. 해당 프로젝트가 우리나라 도로에 특화되어 있다는 차별점과 이를 위해 구현해야하는 기능을 발표함. 기대효과까지 수치를 활용하여 자세하게 제시하여 청중의 입장에서 더 납득이 쉽게 됨. 다만 기획과 비교하여 기술을 구현하는 과정에서 다소 부족한 부분이 모여 기술을 구현하고 시연까지의 과정의 반복을 통해 한계점을 계속해서 보완한다면 발전가능성이 충분히 있음.
휠체어 사용자들을 위한 저상버스처럼 이미 제도화된 사회문제 해결 장치의 실질적 한계점을 날카롭게 짚어내며, 표면적 해결을 넘어서 본질적인 문제에 접근하는 비판적 사고 역량이 돋보임. 관련 현황에 대한 정량적 데이터를 수집/분석하는 데에도 탁월한 역량을 보였으며, 기존 정책의 실효성을 재검토하고 그 가치를 새롭게 구성하려는 시도에서 창의적 문제의식과 차별성이 드러남.
3
Team08
AI
이준혁
디지털 활용 격차로 인해 사회적으로 소외되는 경계선 지능 장애인들을 돕고자 하는 슬로건을 바탕으로, 이들을 위한 학습 어플리케이션을 제작함. 실제로 STT(음성인식)와 TTS(음성합성) 기술을 활용해 실시간 텍스트 읽기와 상황 대처 훈련이 가능한 웹 페이지를 개발하였으며, 경계선 지능 장애인들도 쉽게 사용할 수 있도록 직관적이고 접근성 높은 UI/UX를 구성함. 구현 과정에서는 기술적 경험과 스택이 부족해 많은 어려움이 있었지만, 꾸준한 노력과 학습을 통해 향후 충분히 기술적 보완이 가능하다고 판단하며, 열정적으로 코딩에 임하는 모습이 매우 인상적임. 특히 주제 자체가 매우 뜻깊고, 장애우 학생들을 진심으로 생각하는 깊은 마음이 돋보임.
앱 기획은 경계성 지능 장애인의 디지털 활용 격차 해소라는 사회적 필요성이 명확하고, 상황 대처 훈련·키오스크 시뮬레이터·실시간 텍스트 읽기 같은 기능 구성도 좋아 보임 상태임. 하면 좋을 듯 함. 다만 실시간 텍스트 읽기에서 Tesseract.js만 사용하면 OCR 정확도가 낮을 수 있어서, 이미지 이진화·데스큐잉 같은 전처리와 Google Vision API·AWS Textract 같은 대체 OCR 엔진 비교를 추가하면 인식률을 크게 개선할 수 있을 듯 함 상태임. 하면 좋을 듯 함. 상황 대처 훈련 기능의 유사도 측정·감정 분석 코드는 좋은 출발이지만, Sentence-BERT 기반 임베딩과 FastText 또는 Hugging Face 감정 분류 모델을 명시하고, 응답 평가 시 지연 시간(latency) 측정을 포함하면 실서비스 품질 확보에 도움이 될 것임 상태임. 하면 좋을 듯 함. 키오스크 훈련은 UI 흐름이 잘 잡혀 있지만, Backend 로직 설계가 빠져 있어서, XState 또는 Redux 기반 상태 관리 패턴과 Node.js/Express나 Django REST API 연동 명세를 추가하면 모듈화와 유지보수성이 올라갈 듯 함 상태임. 하면 좋을 듯 함. 개선 방안으로 제시한 TTS 고도화는, AWS Polly·gTTS·Tacotron2 엔진을 비교 검증하고, 사용자 레벨별 Prosody 튜닝 파이프라인을 구체화하면 더 자연스러운 음성 경험을 제공할 수 있을 듯 함 상태임. 하면 좋을 듯 함. 끝으로 ML Ops 파이프라인 구축(Airflow, Kubeflow, MLflow)과 Active Learning 기반 사용자 피드백 재학습, React Native AccessibilityProps 적용을 통한 TalkBack/VoiceOver 연동 같은 지속적 개선 전략을 더하면 완성도 높은 서비스로 발전할 수 있을 듯 함 상태임.
경계성 지능 장애인의 접근성 향상 프로젝트에서, 유저케이스를 분류하여 체계적으로 프로젝트를 진행한 모습이 상당히 흥미로웠음. 또한 이 분리한 유저케이스를 심사기준에서 제시한 세 가지의 기능으로 각각 분리하여 작업했다는 점도 놀라웠음. 다만 이 서비스의 역할군, 타겟층 등이 완전히 다른 범주의 사람이었는데다, 세 가지 유저케이스를 매끄럽게 통합하지 못했다는 점은 조금 아쉬웠음. 시간을 더 내서 여러가지 유저케이스를 통합한 프로젝트가 된다면 훨씬 가치있고 발전 가능성 높은 프로젝트가 될 것이라고 확신함.
경계선 지능 장애인의 디지털 접근성을 높이기 위한 학습 웹앱을 기획·개발하며, 사회적 약자에 대한 깊은 공감 능력과 문제 해결 역량을 드러냄. STT와 TTS 기술을 활용한 실시간 음성 지원 기능 구현을 시도했으며, 사용성 테스트를 통해 개선점을 도출하는 등 사용자 중심의 개발 과정이 인상적임. 기술적 어려움에도 불구하고 꾸준한 학습과 실험을 통해 완성도를 높이려는 태도가 우수하며, 사회적 가치와 실현 가능성을 동시에 갖춘 프로젝트로 평가됨.
경계선 지능장애인 대상 디지털 접근성 향상 웹서비스 개발 프로젝트를 진행함. 경계선 지능장애인의 디지털 격차 해소를 위한 ‘경계선 디지털 훈련’ 웹플랫폼 개발에 참여하였음. 해당 프로젝트는 경계선 지능 사용자들의 실생활 디지털 적응력 향상을 목표로 하여 진항함. • 상황 대처 훈련 모듈: 학업, 인간관계, 상생활 등 실생활 상황별 적절한 대응 방법을 학습할 수 있는 시뮬레이션 프로그램을 설계함 • 키오스크 훈련 시스템: 햄버거 주문을 예시로하여 실제 키오스크 사용법을 연습할 수 있는 가상 체험 환경을 구축함 • 실시간 텍스트 읽기 기능: 노트북 또는 휴대폰의 카메라를 활용한 문자 인식 및 읽기 연습 도구 개발 본 활동을 통해 웹 인터페이스 설계, 사용자 경험(UX) 최적화, 특히 대상 사용자의 인지적 특성을 고려한 직관적인 UI/UX 설계를 진행하였으며 향후 정보통신기술(ICT)을 활용한 사회적 가치 창출 분야로의 진로 방향성을 구체화함.
경계선 지능을 가진 장애인을 위한 학습 웹/앱을 제작하며 대상의 특성을 면밀히 분석하고, 복수의 가상 페르소나를 설정해 문제를 세분화하고 구체화하는 등 탁월한 문제 분석 및 기획 역량을 보여줌. STT와 TTS 기술을 활용한 실시간 텍스트 읽기 기능과 상황 대처 훈련 기능을 구현해, 사용자의 인지 특성과 접근 편의성을 고려한 웹 서비스를 개발함. 특히, TTS 글자 인식 결과 오류와 AI 분석이 원활히 이루어지지 않는 오류 등 기술적 문제에 대해 다양한 API를 검토하고 개선 방안을 능동적으로 탐색하는 과정에서 꾸준한 문제 해결 의지와 성장 가능성이 돋보임.
4
딥동찬러닝
AI
편유나
고령화 사회와 노인 복약 문제의 심각성을 토대로, 노인 복약 문제의 심각성과 기존 복약 알림 시스템의 한계점을 자료조사를 토대로 나타냄. 또한 TTS로 약품명과 음성 입력 기능을 추가하였고 노인을 위한 UI/UX를 구성하여 기존의 앱과의 차별점을 둠. 또한 보호자 연계시스템을 통해 약 미복용시 알림이 가도록 하여 보호자와 노인들도 편하게 일상생활을 할 수 있도록 도움을 줌. 다만, 이메일을 통해서 WebHook 방식의 전송을 할려고 하였으나, 실제로는 이메일 보다는 전화/문자 API를 사용하여 구현하였으면, 좀더 현실적이고 실용적인 시스템이 될수 있다는 아쉬움이 있음. IOT 기기와 연동하여 스마트 알약통을 제작해보는것도 큰 도움이 될것이라고 생각함.
기획은 고령자 복약 문제를 목적으로 한 아이디어가 명확하고, 음성 기반 인터페이스·DB 연동·보호자 알림 같은 기능 구성도 잘 잡혀 있는 상태임. 다만 음성 인식 성공률이 70%로 배경 소음에 취약한 상태임. 그래서 VOSK나 Whisper 같은 오프라인 STT 모델 도입하거나 노이즈 제거 필터를 적용하면 인식 정확도가 올라갈 듯 함. 그리고 지금은 음성 인식만 구현하고 음성 합성(TTS)은 빠져있는 상태임. AWS Polly나 Tacotron2 같은 TTS 엔진을 연동해서 자연스러운 피드백 음성 출력을 추가하면 좋을 듯 함. 식약처 CSV를 직접 불러와 유사 검색하는 방식은 버전 관리·검색 최적화에 한계가 있는 상태임. SQLite나 MongoDB 같은 경량 DB, 혹은 FHIR 기반 의료 표준 DB로 전환해 데이터 관리 효율성을 높이면 좋을 듯 함. 현재 데스크탑 Tkinter 앱 위주로 개발되어 모바일 접근성이 떨어지는 상태임. React Native나 Flutter로 크로스 플랫폼 앱을 개발해 접근성을 개선해보는 것도 기술적으로 고려할만 함. 노인을 위한 모바일 푸시 알림도 지원되지 않는 상태임. FCM이나 APNs 같은 푸시 서비스 연동을 추가하면 현실적 사용성이 높아질 듯 함.
문제 정의와 이를 해결하기 위한 솔루션 선정이 매우 명확했고 전달력 있게 전달하였음. 다만 현제 확보할 수 없는 데이터들이 있고, 이로 인해 달성할 수 없는 기술적 한계들이 있는 점은 아쉬웠음. 다만 그래도 최대한 이를 해결하기 위해 환자가 약물의 이름을 전부 알고 있다는 가정적 상황을 적용하거나, 음성 인식 기능 등 필요한 기능 구현에 집중하는 등 다방면으로 해결책을 모샜했다는 점이 매우 인상깊었음. 실제로 기획했거나 정의한 문제대로 서비스를 제작한다고 하면 분명 수요가 있을 만한 주제기도 하고, 차별점도 있기 때문에 앞으로의 발전 가능성이 매우 높다고 생각하였음.
초고령화 사회의 현실을 반영하여 노인의 약물 오복용 문제를 해결하고자 복약 알림 및 보호자 연동 기능을 갖춘 프로그램을 기획·개발함. 기존 복약 알림 서비스들을 직접 분석하고 한계를 파악한 뒤 이를 보완하는 방향으로 설계를 진행한 점이 인상적이었음. 논문 리서치와 실제 노인 대상 인터뷰를 통해 사용자 중심의 페인포인트를 면밀히 파악하고, 개발 이후에도 반복적인 테스트를 통해 개선점을 도출함. 모든 팀원이 성실히 참여하며 끝까지 프로젝트를 완수하려는 태도를 보였으며, 기술적 제약 속에서도 프로토타입 수준에서 높은 완성도를 보여줌. 향후에는 ChatGPT Realtime API나 Whisper API 등을 활용해 음성 기반 접근성 강화 방향으로 확장할 수 있는 발전 가능성도 큼.
진행하는 프로젝트의 앱이 단순한 알람기능에 그치는 기존 앱과 차별화되어 실질적인 약물정보를 제공하고 복용하는 부분까지 연결될 수 있다는 점을 제시함. 특히 음성인식 기능을 도입하여 스마트폰에 익숙하지 않은 노인들도 쉽게 이용할 수 있도록 한 점이 인상적임. 다만 발표를 진행하는 과정에서 독거노인이 증가하는 현실을 반영해 약물 복용 실수로 인한 건강 피해 사례를 구체적으로 제시하면, 앱의 필요성과 사회적 가치를 더욱 명확하게 어필할 수 있을 것임. 앞으로도 사용자 경험을 고려한 다양한 기능 개발과 실제 사례를 통한 설득력 강화가 추가된다면 , 더욱 차별화된 앱이 될 거라 기대함.
고령화 사회에서 노인의 복약 문제를 중요한 사회적 문제로 인식하고, 관련 통계 자료를 바탕으로 복약 실태 및 인지 저하에 따른 위험성을 세세하게 분석함. 이를 통해 기존 복약 알림 어플리케이션이 고령자의 실제 사용 환경에서 실효성이 낮다는 점을 날카롭게 짚어내며, 문제를 분석하고 본질에 접근하는 뛰어난 사고력을 보여줌. 특히, 단순한 알림 기능 중심의 기존 앱들이 고령자의 인지 특성을 반영하지 못하고 있다는 한계를 기술적으로 면밀히 파악하고, 이를 극복하기 위해 보호자와 연동 가능한 복약 알림 시스템을 직접 설계 및 개발함. 더 나아가 개발에 그치지 않고, 실제 사용자들을 대상으로 한 성능 평가를 주도적으로 수행하며 정량적 데이터를 수집하고, 이를 통해 기능 개선 방안을 도출해내는 과정에서 실천적 문제 해결 역량과 사용자 중심의 관점을 바탕으로 한 높은 발전 가능성을 보여줌.
5
I5T
IOT
장원준
시청각장애인을 위한 웨어러블 임베디드 시스템을 개발함. 라즈베리파이와 아두이노를 활용해 저전력 환경에서 효율적으로 작동하는 임베디드 시스템을 설계하고, 제한된 전력 내에서 최적의 성능을 내기 위해 지속적으로 연구 및 협력함. 팀원들의 강점과 역량을 분석하여 역할을 분배하고, 2학년부터 3학년까지 모든 팀원이 긴밀하게 협력하며 프로젝트를 완수함. 특히 시각 및 청각 장애인을 동시에 지원하는 웨어러블 디바이스라는 혁신적인 아이디어를 바탕으로, 사용자 친화적인 UI/UX를 구현함. IoT 기기의 특성상 발생하는 오류를 뛰어난 문제 해결 능력으로 극복하며 완성도 높은 프로토타입을 제작하였고, 발표 과정에서는 명확하고 차분한 설명과 체계적인 자료 구성을 통해 누구나 쉽게 이해할 수 있도록 프로젝트를 성공적으로 전달함. 멘토링톤을 통해 실질적인 기술력과 협업 능력을 키우는 뜻깊은 경험을 쌓았으며, 앞으로의 발전 가능성이 매우 기대됨.
NeuroFeel 팀의 시청각 장애인 전용 웨어러블 디바이스 기획은 촉각을 통해 장애물 정보를 전달한다는 아이디어가 명확해 상태임. 하지만 초음파 센서와 자이로 센서만으로 거리와 각도를 측정하는 로직은 실내외 반사나 사용자의 빠른 움직임에 따른 노이즈에 취약한 상태임. 이 부분은 ToF(Time-of-Flight) 적외선 센서나 LiDAR를 추가로 도입하고, Kalman Filter나 Complementary Filter 같은 센서 퓨전 알고리즘을 적용하면 거리·방향 측정의 정확도를 크게 높일 수 있을 듯 함. 아두이노 우노와 DC 서보 모터 기반 제어부는 전력 소모가 크고 응답 속도가 느린 상태임. ESP32나 nRF52840 같은 저전력 MCU로 교체하고, ERM(Offset Mass) 대신 LRA(Linear Resonant Actuator) 진동 모터를 사용하면 배터리 사용 시간을 늘리고 촉각 반응성을 개선할 수 있을 듯 함. Raspberry Pi와 HuskyLens 조합으로 사물 인식을 시도한 건 좋은 출발이나, 복잡 객체 분류 정확도가 낮은 상태임. TensorFlow Lite 기반 MobileNetV2나 YOLOv5 Nano 경량 모델을 엣지 디바이스에 배포하고, Coral USB TPU 같은 엣지 TPU를 병합하면 실시간 인식을 30FPS 이상으로 안정화할 수 있을것으로 보임.
모든 팀 중에서 기술적인 완성도가 매우 높았음. 그리고 문제 정의에 있어서도 부족한 점이 없었기 때문에 다른 팀들에 비해 조금 더 깊게 들어가 상용화 또는 사업화 측면에서 해당 프로젝트를 평가할 수 밖에 없었음. 구체적으로는 시각장애인과 청각장애인을 위한 기기라고 했을 때는 수요가 굉장히 많지만, 시청각장애인의 경우는 매우 수요가 적을 수 밖에 없는데 이러한 문제를 어떻게 해결할 것인지, 기획적인 부분에서 해결할 수 있는 문제들에 대한 답을 요구하였고, 이를 개선한다면 실제 사업이나 현업에도 내놓을 수 있는 프로젝트의 퀄리티라고 자신함. 또한 발표에 있어서도 자신감 있고 전달력 있는 태도로 임한 점이 인상적이었음.
시청각장애인을 위한 웨어러블 임베디드 시스템을 개발하며, 니치한 타겟의 실질적인 불편을 기술로 해결하고자 한 점이 인상적임. 라즈베리파이와 아두이노 기반의 저전력 환경을 고려한 설계와, 제한된 자원 내에서 센서 위치를 모터로 조정하는 등 사용자 중심의 기능 구현이 우수함. 다양한 학년으로 구성된 팀원 간의 원활한 협업과 역할 분담을 통해 프로젝트를 체계적으로 완수했으며, 발표 과정에서도 명확한 전달력과 자신감 있는 태도를 보여줌. 짧은 기간에도 높은 기술 완성도를 보였고, 향후 발전 가능성이 매우 기대되는 팀임.
시청각장애인들을 위한 전문기기의 개발이 부족하다는 점을 문제점으로 제시하여 우리가 왜 스마트조끼와 스마트지팡이를 제작하려하는지의 의도를 명확히 밝힘. 의도를 제시하는 과정에서 어떠한 센서를 이용하여 어떠한 결과를 기대하는지를 소개함. 발표자료에 개발과정이 매우 자세하게 설명하고있어 활용한센서와 코드에 대해 배경지식이 적은 학생들도 쉽게 이해할 수 있었을 것으로 보임. 발표의 마지막에서 한계점으로 지팡이가 무겁다는 점과 배터리충전의 문제점을 제시하였는데 이와 같은 부분들을 센서와 배터리를 바꾸어 제작해보는 듯한 과정을 거친다면 시각장애인들이 실제 생활에 매우 유용하게 사용할 수 있을 것이라고 생각함
시청각장애인을 위한 전문 보조 기기 개발이 부족하다는 사회적 문제를 인식하고, 진동을 통해 장애물 정보를 전달하는 웨어러블 디바이스를 직접 설계/제작함. 장애물과의 거리에 따라 진동 주기를 조절하고, 초음파 센서가 지면과 수평을 유지할 수 있도록 자이로 센서를 활용하는 등, 문제 해결을 위한 정교한 사전 장비 설계 과정이 돋보임. 다양한 센서와 모듈의 기능과 원리를 명확히 이해한 상태에서 하드웨어를 구현하는 과정에서 피지컬 컴퓨팅 기반의 기술 이해도와 응용력이 뛰어났으며, 제한된 기간 내에 높은 완성도의 시제품을 제작해내는 실행력 또한 탁월함. 직접 제작한 기기를 다양한 환경에서 체험/시연하며 기기의 작동 여부를 평가하고 검증하는 과정에서도 논리적인 분석력과 실험 기반 사고가 드러났고, 기대 효과와 내구성등 현실적 한계에 대해서도 명확히 인식하고 있어 향후 발전 가능성이 매우 높음.
6
Big Brother
AI
한창훈
인공지능 기반 수화 인식 시스템을 개발하여, 수화를 실시간으로 자연어로 변환함으로써 청각장애인과 일반인 간의 원활한 의사소통을 지원함. Mediapipe를 활용해 수화 동작의 주요 포인트를 정확히 인식하는 알고리즘을 구현하였으며, LSTM 기반 딥러닝 모델을 사용해 시간 흐름에 따른 손 모양 변화를 효과적으로 학습함. 특히 손 움직임에서 벡터와 각도를 추출하여 시계열 데이터로 변환하는 창의적인 방식을 도입함으로써, 수어의 연속적인 특성을 잘 반영한 모델을 완성함. 실제 시연 과정을 통해 높은 정확도와 구현 수준을 입증하였으며, 웹 기술과 통합될 경우 실용성 높은 의사소통 기기로 발전할 가능성이 큼.
Breaking Barriers 팀의 비전 기반 실시간 수화 번역기는 청각장애인과 비장애인 간 소통 격차를 해소한다는 점에서 큰 의의가 있음. 웹캠으로 손동작을 입력받아 MediaPipe로 21개 랜드마크를 추출하고, 전처리된 좌표 벡터를 TFLite 모델에 넣어 자모를 예측하는 구조는 경량화된 모바일 구현을 고려한 점이 인상적임. 다만 AlexNet 기반 CNN 모델만으로는 연속적인 손동작의 동적 특성과 배경 노이즈를 모두 잡아내기 어려운 상태임. 우선 자모 분류 정확도를 높이려면 영상 시퀀스 전체의 시간적 문맥을 반영할 수 있는 3D CNN(Inflated 3D ConvNet)이나 Temporal Convolutional Network(TCN), 혹은 Transformer 기반 비디오 분류 모델(Video Swin Transformer)을 도입하는 것을 고려해볼만 함. 손 동작마다 일관된 특징을 학습하려면 각 프레임을 독립 처리하는 대신 LSTM·GRU 계열의 시계열 모델이나 Self-Attention 메커니즘으로 특징 간 상관관계를 모델에 포함해야 함. 전처리 단계에서는 U-Net을 활용한 배경 제거만 실행한 상태임. 실제 환경에서는 손 이외의 오브젝트나 조명 변화로 인해 랜드마크 추출이 흔들릴 수 있으므로, 컬러 공간 변환(CIELAB), 이진화(binarization)와 Morphological 연산을 추가해 손 영역을 명확히 분리하고, 랜드마크 검출 실패 시 보정 보강을 위한 Kalman Filter를 적용하면 안정성이 크게 올라감. 실시간 성능 측면에서도 모델 지연(latency)이 얼마나 되는지 수치화하지 않은 상태임. 사용자 입장에서 자연스럽게 대화가 이어지려면 100ms 이내로 번역 결과가 나와야 하므로, TensorFlow Lite GPU Delegate나 Android NNAPI, Edge TPU(예: Coral USB Accelerator) 활용으로 모델 추론 속도를 2배 이상 끌어올려야 함. 또한 양자화(Quantization)·가지치기(Pruning)로 모델 크기를 줄이고, 배치 처리를 최소화해 프레임 단위 지연을 줄이는 최적화가 필요함. 지연이나 추론 속도를 로그화 해서 정리한 후 성능 개선의 지표로 쓰면 매우 좋을 듯 함. 음성 합성(TTS) 구현은 gTTS + pygame 기반으로 돼 있는 상태임. 이 방식은 네트워크 대기시간과 파일 입출력 오버헤드가 커서 즉각적인 피드백이 어려움. AWS Polly의 Neural TTS나 오프라인 Tacotron2 + WaveGlow 같은 엔진을 SSML로 연동해 음성 합성 과정을 비동기 API 호출로 처리하거나, 주요 문장 템플릿을 미리 캐싱해두면 지연 없이 자연스러운 음성 출력이 가능해질 것임. 마지막으로 데이터 파이프라인이 수동으로 자모 샘플을 모으고 라벨링하는 상태라 확장성에 한계가 있음. GitHub Issues + Label Studio 같은 라벨링 플랫폼과 MLflow/Kubeflow 기반의 MLOps 파이프라인을 구축해 지속적으로 사용자 검증 데이터를 수집·재학습하도록 하면 모델이 신종 손동작에도 빠르게 적응할 수 있음. 이러한 보완을 통해 완성도 높은 실시간 수화 번역기를 구현할 수 있을 것임.
발표를 들으며 실제로 수화 인식 기능이 상당히 높았던 점이 놀라웠는데, 발표 내용 중에 LSTM과 Mediapipe를 활용한 파이프라인을 구성했다고 하여서 실제로 딥러닝 모델링을 할 때 원하는 목적에 맞는 모델을 고르고, 이를 효과적으로 조합하는 방법을 정확하게 알고 있다는 생각을 하게 해줌. 실제로 동영상에서의 수화 흐름은 시간에 따라 변하는 맥락이 상당히 중요한데, 이를 위해 사진으로 학습한 데이터를 가지고 영상을 쪼개서 LSTM에 넣는 파이프라인을 구성했다는 발상이 상당히 창의적이라 인상깊었음.
Mediapipe와 LSTM 기반 딥러닝 모델을 효과적으로 활용하여 수화 인식 시스템을 구현한 점이 인상적임. 손 모양의 연속적인 변화를 정밀하게 인식하고 문장 단위까지 정확하게 해석하는 모습을 통해 높은 기술력과 집중력을 입증함. 특히 시계열 데이터를 벡터와 각도로 정제하는 창의적인 접근이 돋보였으며, 실제 시연에서도 안정적인 성능을 보여줌. 기술뿐 아니라 사회적 가치에 대한 깊은 고민이 느껴지는 프로젝트였음.
의사소통에 어려움을 겪는 장애인들 중에서 청각장애인의 비율이 가장 높다는 조사자료를 제시하였고 특수학교에서조차 수화자격증을 보유하고있는 교사가 소수에 불과하다는 점을 제시하며 이러한 문제점을 해결하기 위한 방안으로 수화변역기를 제시함. 결과물을 시연하는 영상에서 간단한 단어로만 구성되어 있었는데 이를 더 빠른 속도와 긴 문장까지 다룰 수 있도록 발전이되면 더 실용성이 상승될 것임.
청각장애인의 사회적 소외 문제를 통계 자료를 통해 논리적으로 분석하고, 특수학교 내에서도 의사소통에 어려움을 겪는 실제 상황을 면밀히 조사하며 탁월한 문제 분석 능력을 보여줌. 기존 CNN 기반 수화 인식 프로젝트들을 연구한 뒤, 사진이 아닌 영상 기반의 실시간 수화 분석, TTS를 통한 인터랙션 구현, 문장 단위의 자연스러운 의역 등 본인 팀만의 차별화된 접근 방식을 기획하여 실용성과 접근성을 함께 높임. Mediapipe와 LSTM 기반 딥러닝 모델을 결합한 수화 번역 프로그램을 직접 개발하였고, LSTM과 RNN 알고리즘의 원리와 성능 차이, 활용 시 장단점을 명확히 이해하고 적용함. 청각장애인의 의사소통 권리 보장, 정보 접근성 확대, 존중의 측면에서 프로젝트의 사회적 가치까지 설득력 있게 설명해내며, 기술을 통해 사회적 약자의 삶의 질을 개선하려는 진정성 있는 태도와 뛰어난 문제 해결 역량이 돋보임. 최종적으로 높은 인식 정확도를 구현하여 시연까지 성공적으로 마무리하며, 기술적 완성도와 사회적 기여 가능성 모두를 입증함.