8주차 과제 체크포인트
회고
과제를 진행하면서 알게된 사실들을 따로 블로그 글로 포스팅했습니다
기본 과제
필수
- 반복 유형 선택
- 일정 생성 또는 수정 시 반복 유형을 선택할 수 있다.
- 반복 유형은 다음과 같다: 매일, 매주, 매월, 매년
- 31일에 매월을 선택한다면 -> 매월 마지막이 아닌, 31일에만 생성하세요.
- 윤년 29일에 매년을 선택한다면 -> 29일에만 생성하세요!
- 반복 일정 표시
- 캘린더 뷰에서 반복 일정을 시각적으로 구분하여 표시한다.
- 아이콘을 넣든 태그를 넣든 자유롭게 해보세요!
- 캘린더 뷰에서 반복 일정을 시각적으로 구분하여 표시한다.
- 반복 종료
- 반복 종료 조건을 지정할 수 있다.
- 옵션: 특정 날짜까지, 특정 횟수만큼, 또는 종료 없음 (예제 특성상, 2025-10-30까지)
- 반복 일정 단일 수정
- 반복일정을 수정하면 단일 일정으로 변경됩니다.
- 반복일정 아이콘도 사라집니다.
- 반복 일정 단일 삭제
- 반복일정을 삭제하면 해당 일정만 삭제합니다.
선택
- 반복 간격 설정
- 각 반복 유형에 대해 간격을 설정할 수 있다.
- 예: 2일마다, 3주마다, 2개월마다 등 (1~99 범위 지원)
- 예외 날짜 처리:
- 반복 일정 중 특정 날짜를 제외할 수 있다.
- 반복 일정 중 특정 날짜의 일정을 수정할 수 있다.
- 요일 지정 (주간 반복의 경우):
- 주간 반복 시 특정 요일을 선택할 수 있다.
- 평일/주말 프리셋 포함
- 월간 반복 옵션:
- 매월 특정 날짜에 반복되도록 설정할 수 있다.
- 31일 경계 규칙 적용 (31일이 없는 달은 건너뛰기)
- 반복 일정 전체 수정 및 삭제
- 반복 일정의 모든 일정을 수정할 수 있다.
- 반복 일정의 모든 일정을 삭제할 수 있다.
심화 과제
- 이 앱에 적합한 테스트 전략을 만들었나요?
각 팀원들의 테스트 전략은?
BMAD Method 기반 멀티에이전트 협업으로 진행하여 팀원별 역할 분담:
- Analyst: 요구사항 분석 및 정의
- PM: PRD 작성 및 프로젝트 관리
- Architect: 시스템 아키텍처 설계
- Story Master: Epic을 Story로 세분화
- Developer: TDD 기반 구현
- QA: 품질 검증 및 게이트 운영
합의된 테스트 전략과 그 이유는 무엇인가요?
우리 팀의 공통 테스트 전략
-
회귀 테스트 중심
- 새로운 기능을 추가하거나 리팩터링할 때, 기존 기능이 깨지지 않았음을 보장한다.
- 안정성을 최우선으로 하는 "안전망" 역할을 한다.
-
단위 테스트 보완
- 새로 추가된 기능이나 리팩터링된 모듈은 단위 테스트로 빠르게 검증한다.
- 작은 단위에서 오류를 조기에 발견해 개발 효율성을 높인다.
-
데이터 마이그레이션 스크립트 활용
- 기존 데이터만으로는 새로운 기능을 충분히 테스트하기 어려우므로, 데이터 마이그레이션 스크립트를 작성하여 테스트 환경과 실제 환경을 일관되게 유지한다.
-
(필요시 최소한의 통합/E2E 테스트)
- 전체 사용자 플로우에서 반드시 확인이 필요한 부분은 가볍게 E2E로 보완한다.
- 하지만 메인 전략은 회귀 + 단위 테스트이다.
한 줄 요약 "회귀 테스트로 안정성을 보장하고, 단위 테스트로 새 기능을 검증하며, 필요시 마이그레이션과 최소한의 통합 테스트로 보완하는 전략."
이 전략을 선택한 이유: 기존 기능 위에 새 기능을 추가하는 브라운필드 개발 특성상, 회귀 테스트로 안정성을 보장하고 단위 테스트로 새 기능의 신뢰성을 확보하는 것이 가장 효과적이라고 판단했다.
추가로 작성된 테스트 코드는 어떤 것들이 있나요?
총 192개 테스트 모두 통과:
- 단위 테스트: 150개 (반복 로직, 유효성 검사)
- 통합 테스트: 28개 (API 연동, UI 플로우)
- 회귀 테스트: 14개 (기존 기능 보호)
주요 테스트 영역:
- 반복 패턴 계산 함수 (17개 단위 테스트)
- 경계 조건 처리 (31일, 윤년 규칙)
- 예외 날짜 및 요일 지정 로직
- Bulk API 기반 일괄 관리 기능
- UI 컴포넌트 상태 관리
과제 셀프회고
기술적 성장
- AI 멀티에이전트 협업: BMAD Method를 통한 새로운 개발 패러다임 경험
- TDD 마스터: 테스트 우선 개발로 안정적인 기능 구현
- 아키텍처 설계: SOLID 원칙과 레이어드 아키텍처 체계적 적용
- 컨텍스트 엔지니어링: 거대한 컨텍스트를 관리하는 새로운 방법론 습득
코드 품질
특히 만족스러운 구현:
- 반복 일정 경계 처리: 31일/윤년 규칙의 정교한 구현
- 품질 게이트 시스템: PASS/CONCERNS/FAIL 3단계 검증
- 테스트 커버리지: 192개 테스트로 90% 이상 달성
- 클린 아키텍처: 의존성 방향과 레이어 분리 완벽 적용
리팩토링이 필요한 부분:
- Epic 기반 개발 방법론의 더욱 정교한 적용
- AI 에이전트 간 협업 효율성 최적화
학습 효과 분석
가장 큰 배움:
- BMAD Method: 전통적 개발을 뛰어넘는 AI 기반 협업 방법론
- 거대 컨텍스트 관리: 복잡한 프로젝트를 미세 단위로 분해하는 기술
- 품질 우선 개발: TDD와 회귀 테스트의 강력한 조합
실무 적용 가능성:
- 대규모 레거시 시스템 개선 시 활용 가능
- 팀 단위 협업 프로세스 개선에 직접 적용
- AI 도구를 활용한 개발 생산성 혁신
과제 피드백
과제에서 좋았던 부분:
- 실제 업무와 유사한 복잡한 요구사항
- 브라운필드 개발의 현실적 제약 조건
- 경계 케이스(31일, 윤년)를 통한 정교함 요구
과제에서 모호하거나 애매했던 부분:
- AI 멀티에이전트 활용에 대한 가이드라인 부족
- 더 복잡한 도메인 로직 챌린지 필요
컨텍스트 엔지니어링 체험기
시행착오와 깨달음
이번 과제를 진행하면서 BMAD Method의 핵심인 컨텍스트 엔지니어링을 직접 체험했다. 그 과정에서 몇 가지 중요한 시행착오와 깨달음을 얻었다.
시행착오:
- 거대한 태스크의 한계: 좋은 AI 모델이라도 거대한 태스크를 맡기면 성능이 떨어짐을 경험
- 역할 기반 에이전트의 모호성: 각 에이전트에게 맡겨야 할 일의 경계가 모호함을 느낌
그래서 저도 이번 과제에서 목표했던 에픽을 아래와 같이 나누었습니다.
Architect 에이전트, PM 에이전트 그리고 PO 에이전트와 대화할 때에는 명확한 요구사항들이 있었기 때문에 막힘없이 문서화를 진행하여 컨텍스트를 쌓아올렸고, 에픽에 맞는 스토리 문서도 함께 작성했다.
스토리 문서들도 있으니 Dev 에이전트와 일을 해보았다. 그런데 제 기대와는 달리 효율이 나오지 않는 것을 목격했다. 이때 단순히 고민을 해보았다.
- 내가 전달한 태스크의 양이 방대했는가?
- 내가 전달한 컨텍스트의 양이 너무 방대했는가?
- 단순히 일시적으로 LLM이 멍청해졌을까?
이런 고민을 하다가 당장 할 수 있는 일을 고치려고 해보았다.
내가 전달한 태스크의 양이 방대했는가?
이는 단순하게 Story를 잘게 쪼개어 Dev 에이전트에게 전달하면 적은 범위의 업무를 수행하니 더 잘하겠지라는 생각에서 개선해보니 더 나아졌다. 하지만 고민이 되어 화요일 평일 Q&A 시간에 오프코치님께 아래와 같은 질문을 드렸다.
에이전트가 어떨 때는 말듣고 어떨 때는 멍청해져요. 컨텍스트가 너무 긴 걸까요?
코치님께서 알려주신 방법을 요약하자면 아래와 같았는데, 딱 PO Agent와 다시 한번 스토리의 범위를 조정한 것임을 알게 되어서 흡족했다.
- 작업을 잘게 나누세요 → AI한테 시켜서 어떻게 나눌지 물어본다.
- AI에게 먼저 어떻게 작업할지 계획을 세우라고 한다.
- (명시적으로) 시키세요
감사합니다 오프코치님!
BMAD Method의 핵심 발견: 거대한 컨텍스트를 어떻게 물고 가는지에 대한 답을 찾았다. 결국 BMAD Method 같은 AI Native Workflow Framework를 사용하는 이유에 대해 깊이 고민해보게 되었다.
프레임워크의 본질과 BMAD Method
AI 사이버렉카방 - 디코 스레드에서 나눈 대화입니다...
영서님께서 BMAD Method를 왜 쓰느냐고 질문을 주셨다.
3주차 과제 중에서 제가 이런 말을 했더라고요.
이런 패러다임들은 모두 개발자가 할 수 있는 일을 제한함으로써 더 나은 소프트웨어를 만들도록 유도한다.
라고 했었다. 평소에도 관심을 가지던 주제였고, 좋은 질문을 영서님께서 남겨주셔서 재밌게 답변했던 것 같다.
프레임워크를 왜 쓰는가?: 프레임워크란 정해진 규약 안에서 제품을 만들어내는 것이다. 정해지지 않은 방법을 사용하기 어렵게 만드는 것이 핵심이다.
**여기서 관통하는 것은 "정해진 규약"**이다.
BMAD Method의 강제성: BMAD Method 같은 AI Native Workflow Framework는 결국 우리 사람들이 일하는 방식에 규약을 걸어서 강제하는 행위다.
사람들의 자유와 규약의 필요성: 사람들은 너무나 자유롭기 때문에 업무를 하는 방법도 천차만별이다. 많은 사람들이 이 자유 때문에 골머리를 썩인다. 그래서 코드 컨벤션이라든가, Jira라든가, 업무에 도움을 주는 규칙들을 정하는 것이다.
BMAD Method가 강제하는 것: 컨텍스트 엔지니어링에서 답을 찾았다. 거대한 컨텍스트를 가져감에 따라 거대한 문서를 작성해가며, 그 문서가 SSOT(Single Source of Truth)가 되도록 만드는 것이다. 개발자뿐만 아니라 비개발 직군까지 이 거대한 컨텍스트 위에서 함께 일하는 방법을 찾아서, 사람들의 자유를 박탈해가며 일하는 방식을 정해주는 것이다.
조직적 관점에서의 가치: 단순히 엔지니어링 관점에서는 머리가 아플 수 있다. 하지만 조직 관점에서 보면 너무 훌륭한 관점으로 볼 수 있다. React를 왜 쓰는가? Jira를 왜 쓰는가? 이런 것들과도 비슷하다.
리뷰 받고 싶은 내용
1. 멀티에이전트 협업 방법론 평가
현재 구현한 BMAD Method(Brownfield Multi-Agent Development)가 실제 업무 환경에서도 적용 가능한지, 그리고 이 방법론을 더욱 발전시킬 수 있는 방향에 대해 조언해주실 수 있나요? 특히 에이전트 간 역할 분담과 품질 게이트 시스템의 효과성에 대한 피드백을 받고 싶습니다.
2. 컨텍스트 엔지니어링 전략 검토
거대한 컨텍스트를 마이크로 태스크로 분해하여 연속 실행하는 방식이 복잡도 관리에 효과적인지 평가해주실 수 있나요? 현재 Story당 2-4시간 단위로 세분화했는데, 이 단위가 적절한지, 그리고 더 효율적인 태스크 분해 기준이 있는지 알고 싶습니다.
3. 테스트 전략의 실무 적합성
팀에서 합의한 "회귀 테스트 중심 + 단위 테스트 보완" 전략이 실제 프로덕션 환경에서도 지속 가능한지 검토해주실 수 있나요? 특히 브라운필드 개발에서 기존 기능을 보호하면서 새 기능을 안전하게 추가하는 방법론으로서의 효과성에 대한 의견을 듣고 싶습니다.
4. 아키텍처 설계의 확장성
현재 구현한 레이어드 아키텍처(types → utils → hooks → components)가 더 복잡한 도메인으로 확장될 때도 유지될 수 있는지, 그리고 SOLID 원칙 적용 수준이 실무 기준에 부합하는지 평가해주실 수 있나요?
5. Zero Hand-Coding 개발의 혁신성
단 한 줄의 코드도 직접 작성하지 않고 AI 멀티에이전트로만 구현한 이 접근 방식이 미래 개발 트렌드로서 어떤 가능성과 한계를 갖는지에 대한 견해를 듣고 싶습니다. 이 방법론이 개발자의 역할을 어떻게 변화시킬 수 있을까요?
6. AI Native Workflow Framework의 조직적 가치
BMAD Method가 강제하는 규약과 컨텍스트 엔지니어링이 조직 차원에서 어떤 가치를 가질 수 있는지, 그리고 이 방법론이 팀 협업과 프로젝트 관리에 미칠 수 있는 영향에 대해 조언해주실 수 있나요?
과제 진행 기간
- 실제 개발 기간: 일요일 오전 11:45 ~ 월요일 22:30 (약 35시간)
- 멘토 미션: "AI를 활용했다면 구현에 얼마나 걸렸는지 공유해달라. 테스트까지 포함해서 높은 완성도로 정리하는데 얼마나 걸렸는지 알려줘. 다음 기수 테스트 과제를 준비 중인데 너무 빨리 끝나면 더 어렵게 만들 수도 있다."
멘토 피드백 요청
오프코치님의 비밀 지령이 있었으므로 이걸 추가했다...
멘토님께서 AI 활용 개발 시간과 완성도에 대해 궁금해하시는데, 이번 과제는:
- 총 소요 시간: 약 20시간 (일요일 오전 11:45 ~ 24:00 / 월요일 22:00 02:30 / 화요일 21:00 ~ 24:00)
- AI 활용도: 100% AI 멀티에이전트 기반 개발 (Zero Hand-Coding)
- 완성도: 모든 필수/선택 과제 100% 완료, 192개 테스트 통과, 90% 이상 커버리지
ㅎㅎ 다음 기수분들 죄송합니다...
과제 피드백
수고했습니다. 이번 과제는 TDD 방법론을 실제로 경험해보면서 테스트 주도 개발의 Red-Green-Refactor 사이클을 체험하는데 목적이 있었습니다.
준형은 AI에 대해서 정말로 관심이 많아서 흥미로운 결과들을 계속 선보이고 있는 부분이 아주 재밌어 보입니다. BMAD Method라는 AI 멀티에이전트 협업 방식으로 접근한 점이 정말 흥미롭네요. 캘린더라는 이미 검증된 도메인이긴 했지만 192개 테스트를 모두 통과시키고 90% 이상 커버리지를 달성한 것은 상당히 놀랍네요. 협업 에이전트를 바탕으로 컨텍스트 엔지니어링을 통해 태스크를 만들어 진행한 부분은 단순히 구현이 아니라 매니징의 측면에서도 상당히 인사이트가 있었습니다.
다음은 제가 생각하는 질문에 대한 답변입니다. 다분히 주관적인 답변이라는 점 참고해주세요!
- 멀티에이전트 협업 방법론 평가 Q) 현재 구현한 BMAD Method(Brownfield Multi-Agent Development)가 실제 업무 환경에서도 적용 가능한지, 그리고 이 방법론을 더욱 발전시킬 수 있는 방향에 대해 조언해주실 수 있나요? 특히 에이전트 간 역할 분담과 품질 게이트 시스템의 효과성에 대한 피드백을 받고 싶습니다.
과제의 경우 캘린더라는 검증된 도메인이지만 실제 업무 환경에서는 학습이 많이 되어 있지 않은 내용을 다룬다거나 거대 소스코드와 컨텍스트를 다루게 되므로 이 부분이 AI가 소화해낼 수 있는 분량일지는 검토가 필요하겠네요.
현재 방식은 결과적으로 상당히 많은 문서를 만들어 내고 있는데요, 이 모든 것들을 관계자들이 안 읽어볼수는 없을 거라고 생각합니다. 각자가 컨텍스트를 쌓아두어야 소통이 되면서 다음 업무 진행이 가능할텐데 내가 한게 아니라 그냥 스팸메일처럼 될거라 만들어진 컨텍스트를 관리하고 기억하고 담당하는 사람의 속도에 매이게 될거에요.
1-2명의 관리자 체계에게 AI가 만들어내는 문서를 끊임없이 읽고 정리하고 관리하는 사람
- 컨텍스트 엔지니어링 전략 검토 Q) 거대한 컨텍스트를 마이크로 태스크로 분해하여 연속 실행하는 방식이 복잡도 관리에 효과적인지 평가해주실 수 있나요? 현재 Story당 2-4시간 단위로 세분화했는데, 이 단위가 적절한지, 그리고 더 효율적인 태스크 분해 기준이 있는지 알고 싶습니다.
=> step-by-step은 AI씬에서 가장 검증된 방법입니다. 이걸 어떻게 만드느냐가 기술인데 현재 claude code가 제일 잘하고 있죠. 실제 업무에서도 요구사항의 일을 조각내어 분배하고 순서대로 정렬한 다음에 서로에게 넘겨줘야할 결과물을 정리하고 관리하는 매니저의 힘이 조직이 커지면 커질수록 더욱더 중요하죠. 결국 이러한 매니징을 잘하면 주니어도 수행할 수 있는 업무가 되듯이 AI가 실행할 수 있는 단위로 쪼개어 내는 것은 현재도 많은 연구를 하고 있는 과제입니다.
=> 효율적인 태스크 분해라고 하니 어렵네요. 실제로는 사람마다 한번에 해낼 수 있는 양이 달라서 일단 일을 줘보고 못한다 싶으면 옆에서 직관적으로 태스크를 분해하고 애해했는지 물어보는 커뮤니케이션을 하잖아요? 프론트엔드 개발은 폴더구조를 바탕으로 IN -> OUT과 구조가 거의 분리되어 있으니 컴포넌트, 순수함수, 상태, API 등등 정해진 모듈을 만들어내는 공장처럼 분해하도록 하고 구현하도록 만들 수 있으면 좋겠다 싶네요.
- 테스트 전략의 실무 적합성 Q) 팀에서 합의한 "회귀 테스트 중심 + 단위 테스트 보완" 전략이 실제 프로덕션 환경에서도 지속 가능한지 검토해주실 수 있나요? 특히 브라운필드 개발에서 기존 기능을 보호하면서 새 기능을 안전하게 추가하는 방법론으로서의 효과성에 대한 의견을 듣고 싶습니다.
=> 프론트엔드에서 테스트 코드가 보편적이지 않음에도 회귀 테스트들은 주로하는건 QA들 덕분이죠. 릴리즈를 하기 위해서는 기존 동작이 문제없다는 것들을 항상 테스트를 해야하니까요. 테스트 코드는 AI에게 특정 구현을 강제하도록 하는 아주 좋은 방법이라 생각합니다. 효과적이겠네요!
- 아키텍처 설계의 확장성 Q) 현재 구현한 레이어드 아키텍처(types → utils → hooks → components)가 더 복잡한 도메인으로 확장될 때도 유지될 수 있는지, 그리고 SOLID 원칙 적용 수준이 실무 기준에 부합하는지 평가해주실 수 있나요?
=> 컨벤션을 유지하고 충분한 rule이 있으면 유지될수 있겠다 싶지만 기왕이면 AI에게 시킬거라면 AI가 자주 쓰는 구조를 따라가는게 더 좋더라구요. 아무리 내가 rule을 만들어도 LLM이 생성하는 걸 보면 컨벤션이나 지시보다 본인의 학습된 습관이 훨씬 더 크게 발현되는 경향이 있습니다. 물론 언젠가는 고쳐지겠지만 현재의 AI 구조상으로는 모델이 재학습을 하지 않다보니 아키텍쳐를 가급적 보편적인것을 고르는게 좋다고 생각합니다.
=> 지금 과제 수준에서는 SOLID 원칙 적용을 평가하기가 어렵습니다. 규모가 작을 때는 설계 문제가 크게 드러나지 않아서, 과제를 잘 완수했다고 해서 실제 복잡한 실무 환경에서도 잘 적용될 것이라고 단정하기 어려워요.
- Zero Hand-Coding 개발의 혁신성 Q) 단 한 줄의 코드도 직접 작성하지 않고 AI 멀티에이전트로만 구현한 이 접근 방식이 미래 개발 트렌드로서 어떤 가능성과 한계를 갖는지에 대한 견해를 듣고 싶습니다. 이 방법론이 개발자의 역할을 어떻게 변화시킬 수 있을까요?
=> 흥미로운 질문입니다. 몇 가지 관점이 떠오르네요. 우선 컨텍스트와 히스토리의 학습 이슈입니다. 코드를 작성하지 않더라도 누군가는 이 것을 관리해야 하고 그러기 위해서는 히스토리를 기억해야 합니다. 일종의 외주 회사를 운영하는 느낌이겠죠? 외주관리를 하는 경우 코드를 한줄로 작성하지 않고서 원하는걸 굴릴 수 있으니까요. 현재도 IT가 주가 아닌 대기업의 개발자들이 주로 맡고 있는 역할입니다.
=> 일반적인 개발자들은 스스로는 매니저라기 보다는 엔지니어라고 생각하는 경향이 있어서 외주관리를 하는 것에 큰 흥미를 보이진 않습니다만 돈을 많이 준다고 하면 얼마든지 수요는 있을 거라고 생각합니다. 코딩을 하나도 하지 않는 대기업 외주 관리 개발자가 실제 외주에서 개발을 하는 사람보다는 대우를 더 잘 받는 경우도 많죠. 이런 역할에 가치를 부여한다면 코딩이 없어도 그 일을 하려는 개발자들이 나올 수 있겠죠."
=> 이게 어떤 문화로 작용하게 될지가 중요할 것 같아요. 예전 개발 업계에서 코드없이 홈페이지를 만드는 툴들이 많았죠. 분명 그러한 툴들로 돈을 벌수는 있었지만 개발자의 경력으로 인정해주지는 않았어요. framer는 디자이너들이 배우기 싫어했기에 선택받지 못했습니다. 디자이너에게 경력과 능력으로 봐주지 않았으니까요. 대신 figma는 성공했습니다. figma를 잘 다루는 디자이너를 선호했으니까요.
=> 이러한 멀티엔이전트 도구가 혁신여부도 중요하겠지만 이런 방식에 사람들이 얼마나 많은 가치가 부여하고 커리어로 인정하느냐하는 분위기를 만드느냐에 따라서 변화가 이루어질거라고 생각합니다. 혁신성을 가지고 있다고 한들 모두가 인정해주지 않으면 혼자서만 일을 벌리는 사람이 될테니까요.
- AI Native Workflow Framework의 조직적 가치 Q) BMAD Method가 강제하는 규약과 컨텍스트 엔지니어링이 조직 차원에서 어떤 가치를 가질 수 있는지, 그리고 이 방법론이 팀 협업과 프로젝트 관리에 미칠 수 있는 영향에 대해 조언해주실 수 있나요?
=> 5에서 말한 내용과 비슷한 관점입니다. 독자적으로 한명의 개발자가 하는 것으로는 지속하기 어렵습니다. JIRA가 아직까지 유지되는건 모두가 JIRA를 경험했고 알기 때문이죠. git도 React도 내가 알려주지 않아도 누군가는 밖에서 배워서 옵니다. 그리고 그걸 배운 사람은 오면 알수가 있죠. 그렇기에 강제적인 규약과 학습이 가능한 엔지니어링이 조직 차원에서는 아주 중요한 가치를 가집니다.
=> 그러기 위해서는 어떻게든 붐이 불어야 합니다. 대중의 선택을 받아야 해요. 왜인지는 모르겠지만 다수가 그걸 하고 있어야 하고 그것에 가치를 부여해야하죠. 네이버 클라우드를 애써 배우려고 하지는 않지만 AWS는 배우려고 하잖아요? angular와 react를 비교해도 그렇죠. 방법론적 기술의 성공에서 대중의 선택이 정말로 중요합니다.
=> 같은 맥락에서 이 방법론이 지금 유의미해지기 위해서는 적어도 주변 모두의 동의와 합의가 필요하다는 점입니다. 그렇다고 확장된다는 보장은 없겠지만 적어도 같은 비전을 공유하고 있는 팀은 이러한 시스템 아래서 협업을 이어나갈 수 있겠죠.
다시 말하지만 저는 AI쪽 전문가는 아니어서 주관적인 답변이라는거 이해해주고 다양한 사람들에게 물어가면서 좋은 철학과 기준을 만들어가길 바래요. 저 보다 훨씬 더 AI에 관심과 지식이 많은 것 같아 제가 오히려 물어봐야겠네요. ㅎㅎ 다음 과제도 화이팅입니다!
OFF: 안녕하세요! 오프입니다. 제가 결과를 수정했는데요. 심화과제를 불합격 시킨 이유는 전에 공지에 공유드렸듯이 e2e, 시각적 회귀테스트가 없다는 맥락이였습니다. 아쉽지만 참고 부탁드립니다ㅠㅠ