피드로 돌아가기
Dev.toAI/ML
원문 읽기
전 과정 무료 스택 기반의 AI Content Hub 구축으로 포스팅 시간 60분에서 30초로 단축
# I Built an AI Content Hub for Telegram That Writes Posts in 30 Seconds — For $0/month
AI 요약
Context
콘텐츠 생성 및 발행을 위한 수동 워크플로우의 높은 시간 비용과 SMM 매니저 고용에 따른 고정 지출 발생. 단순 자동화를 넘어 URL 파싱, 이미지 생성, 음성 인식 등 다양한 입력 소스를 처리하는 통합 파이프라인 설계가 필요함.
Technical Solution
- Cascade Strategy 기반의 HTML 파싱: 노이즈 제거 후 OG Tag, H1, Title 순의 우선순위 적용 및 텍스트 길이(30자 초과) 필터링을 통한 본문 추출 정확도 향상
- Markdown 대신 HTML parse_mode 채택: 특수문자 처리 오류로 인한 메시지 전송 실패율을 40%에서 2%로 개선
- Gemini-Flux 2-Step 파이프라인: Gemini가 구체적 객체 중심의 Visual Prompt를 생성하고 Flux가 이를 렌더링하는 구조로 이미지 추상화 문제 해결
- Model Failover 메커니즘: Gemini 2.5 Flash부터 Pro까지의 모델 계층 구조를 설계하여 쿼터 제한에 따른 서비스 중단 방지
- Native Audio Processing: Gemini 2.5 Flash의 멀티모달 능력을 활용하여 OGG 음성 파일을 별도 STT 엔진 없이 즉시 텍스트로 변환
실천 포인트
1. AI 생성 텍스트를 메신저에 전송할 때 Markdown보다는 HTML 포맷을 사용하여 파싱 에러 최소화
2. 이미지 생성 시 '추상적 개념'이 아닌 '구체적 객체'를 묘사하도록 Prompt를 생성하는 중간 레이어 배치
3. AI 모델의 Rate Limit 대응을 위해 다중 모델 Fallback 리스트 구현
4. 웹 크롤링 시 DOM 구조 변화에 대응하기 위해 우선순위 기반의 Cascade Fallback 로직 적용