📌 무슨 일이 있었나
미국 캘리포니아에서 디자인 협업 플랫폼 Figma가 고객의 디자인 데이터를 허가 없이 AI 모델 학습에 활용했다는 의혹을 두고 집단소송(class action)이 제기되었습니다. 해당 소송은 “고객 창작물이 동의 없이 AI 학습에 사용되었다면 이는 명백한 권리 침해”라는 주장을 바탕으로 하고 있습니다.
🤔 왜 이런 움직임이 나왔나
- 최근 대부분의 생성형 AI 서비스들이 데이터 출처와 활용 범위 문제로 논란을 겪고 있음
- Figma는 지난 1년간 AI 기능을 강화하면서, 내부적으로 고객 디자인이 훈련에 쓰였을 가능성 제기
- 사용자들은 “민감한 클라이언트 디자인도 많은데, 이를 AI 학습에 썼다면 심각한 문제”라고 반발
- 기업용 SaaS 중 ‘AI 학습 금지 옵션’을 요구하는 목소리가 글로벌로 확대되는 추세
🧩 핵심만 골라보면
- Figma가 고객 디자인 데이터를 AI 훈련에 사용했다는 의혹
- 제출된 소송은 프라이버시·저작권·계약 위반을 핵심 근거로 함
- Figma 측은 “명시적 동의 없이 학습에 사용된 사례는 없다”고 반박
- 문제는 ‘사실 여부’보다도 고객 신뢰의 흔들림이 더 위험하다는 점
- SaaS 기업들이 앞으로 ‘AI 학습 정책’을 더 명확히 해야 하는 압력이 커질 전망
📈 이게 우리에게 의미하는 것
- AI 시대의 새 기준: 데이터 신뢰
기술보다 중요한 건 ‘내 데이터가 어디에 쓰이는가’라는 질문입니다. 글로벌 SaaS는 앞으로 모든 AI 기능에 대해 투명한 옵션 제공이 필수입니다. - 서비스 선택 기준이 바뀌고 있다
단순 편의성보다, AI 학습 동의 정책·데이터 보관 규정·보안 기준이 더 중요한 선택 요소로 떠오르고 있습니다. - 기업 고객의 반발 가능성
대형 디자인 스튜디오·브랜드 기업들은 민감한 디자인 자료를 다루기 때문에 정책 변화에 따라 플랫폼 이동 가능성도 커지고 있습니다. - AI 규제와 법적 충돌은 더 많아질 것
지금은 시작에 불과하며, 한국에서도 유사한 논쟁이 이어질 가능성이 큽니다.
🌱 마무리 한장
브리퍼 여러분!!
AI가 편리해질수록 ‘내 데이터가 어디로 흘러가는지’ 더 잘 챙겨야 하는 시대입니다. 편리함보다 무서운 건 애매한 약관이니까요. 그러니 오늘도 약관은… 최소한 제목만이라도 읽어봅시다 😅