Pink Rose Flower

AWS

[AWS] AWS Certified AI Practitioner 개념 정리 - 4

hyunjoo 2025. 6. 22. 23:08
책임감 있는 AI란?
AI시스템을 개발할 때는 책임감 있는 AI를 통합하는 것이 중요하다. 책임감 있는 AI란 잠재적 위험과 부정적 결과를 완화하면서 AI시스템이 투명하고 신뢰할 수있도록 보장하는 관행 및 원칙을 말한다. 이러한 책임감 있는 표준은 AI 앱의 전체 수명 주기동안 고려해야 하며 초기 설계, 개발, 배포, 모니터링 및 평가 단계가 포함된다.

 

 

1. AI 유형 : 기존 AI , 생성형 AI

기존 AI 생성형 AI
기존 머신러닝 모델은 사용자 데이터에 기반해 하나의 특정 작업만 수행합니다. 순위 예측, 감정 분석, 이미지 분류 등이 이에 해당하며, 정확한 예측을 위해서는 정교한 학습이 필요합니다.

예로는 추천 시스템, 게임 AI, 음성 비서 등이 있다.
생성형 AI(Generative AI)은 파운데이션 모델(Foundation Model)을 기반으로 작동하며, 광범위한 범용 데이터를 바탕으로 사전 학습되어 여러 작업을 수행할 수 있다. 주로 프롬프트라는 텍스트 입력을 받아 콘텐츠를 생성하며, 학습된 패턴과 관계를 활용해 결과를 만들어 낸다.

예로는 챗봇, 코드 생성, 텍스트 및 이미지 생성 등이 있다.

 

2. 기존 AI 와 생성형 AI의 책임감 있는 AI 과제

 

2-1. AI 시스템의 편향

AI 애플리케이션 개발에서 과제 중 하나는 모델의 정확성이다. 전통적인 AI 모델이든 생성형 AI 시스템이든, 모두 학습된 데이터셋을 기반으로 작동한다. 이러한 모델은 주어진 훈련 데이터를 바탕으로 예측하거나 콘텐츠를 생성하기 때문에, 학습이 충분히 이루어지지 않거나 적절하지 않은 데이터를 사용할 경우 결과의 정확성이 떨어질 수 있다. 따라서 모델의 편향(Bias)과 분산(Variance) 문제를 효과적으로 해결하는 것이 중요하다.

편향 분산
- 모델의 편향이 크다는 것은 데이터의 핵심 특성이 제대로 반영되지 않았음을 의미하며, 일반적으로 데이터가 지나치게 단순하거나 불완전할 때 발생
- 편향은 모델이 예측한 값과 실제 값 사이의 차이로 측정됨
- 편향이 높은 모델은 과소적합상태로, 이는 모델이 데이터의 특성을 충분히 학습하지 못해 훈련 데이터에서도 낮은 성능을 보인다는 것을 의미
- 분산은 모델이 훈련 데이터의 변화나 노이즈에 얼마나 민감한지를 나타냄
- 분산이 높으면 모델이 데이터의 세부적인 노이즈까지 학습해 훈련 데이터에서는 높은 정확도를 보일 수 있지만
 새로운 데이터를 입력하면 련되지 않은 특성에 모델이 적응하지 못하기 때문에 낮은 정확도 보일 수 있음
- 이러한 상태를 과대적합이라고 하며, 모델이 훈련 데이터에는 강하지만 새로운 데이터에 일반화되지 못하는 문제를 의미

 

 

2-2. 편향-분산 절충(Bias-Variance Tradeoff)

모델의 성능 저하는 크게 편향(Bias)과 분산(Variance)이라는 두 가지 오류 요소로부터 발생한다.

  • 편향이 높은 경우: 모델이 너무 단순해 데이터의 패턴을 충분히 학습하지 못함 → 과소적합
  • 분산이 높은 경우: 모델이 너무 복잡해 훈련 데이터에 지나치게 적합함 → 과대적합

이처럼 편향과 분산은 서로 상반된 원인으로 오류를 유발하며, 하나를 낮추려 하면 다른 하나가 증가하는 경향이 있다. 즉, 편향과 분산은 반비례 관계를 가지므로, 두 요소 간의 균형을 맞추는 절충(tradeoff)이 필요하다.

 

편향-분산 절충(Bias-Variance Tradeoff)이란?

모델이 과소적합(편향↑)도 과대적합(분산↑)도 되지 않도록 편향과 분산 사이에서 최적의 균형점을 찾는 과정이다. 이 절충은 모델이 새로운 데이터에 대해서도 안정적으로 예측(일반화)할 수 있도록 데 핵심적인 역할을 한다. 이상적인 모델은 편향도 낮고 분산도 낮은 상태지만, 현실에서는 이 둘을 동시에 최소화하기 어려우므로, 적절한 수준에서 절충하여 일반화 성능을 극대화하는 것이 목표다.

 
 
 

아래는 편향-분산 오류를 최소화하기 위한 대표적인 방법이다.

방법 설명
교차 검증 (Cross Validation) 데이터를 여러 하위 세트로 나누어 학습/검증을 반복 수행하여, 모델의 일반화 성능을 안정적으로 측정함.
데이터 확장 (Data Augmentation) 훈련 데이터를 회전, 크기 변경, 잡음 추가 등으로 늘려 데이터 다양성을 확보하고 과대적합을 방지함.
정규화 (Regularization) L1, L2 정규화를 통해 가중치의 크기를 제한하여, 모델이 과도하게 복잡해지는 것을 방지함.
더 단순한 모델 사용 복잡한 모델이 과대적합될 경우, 더 단순한 구조를 선택함으로써 분산을 줄일 수 있음. 반면, 과소적합에는 복잡도를 올려야 함.
차원 축소 (Dimensionality Reduction) PCA 등으로 불필요한 특성을 제거해 학습 효율을 높이고, 노이즈를 줄여 분산을 낮춤.
조기 종료 (Early Stopping) 검증 손실이 증가하기 시작하면 학습을 중단하여 과대적합을 방지함.

 

 

2-3. 생성형 AI 의 과제

  • 유해성
    불쾌하거나 부적절한 콘텐츠(개인 또는 집단을 증오, 위협, 모욕 또는 비하하는 파운데이션 모델 출력)를 생성할 수 있다. 문화와 문맥에 따라 판단 기준이 다르며, 제한과 검열의 경계가 모호하다. 간접적이거나 교묘한 방식으로 유해 표현이 나타날 수 있다는 점도 문제다.
  • 할루시네이션
    그럴듯하지만 사실과 다른 정보를 생성한다. 실제로 존재하지 않는 논문, 인용, 인물 등을 만들어내는 사례가 많다.
  • 지적 재산
    훈련 데이터에서 가져온 문구나 스타일을 그대로 재현할 수 있다. 명백한 복제는 줄었지만, 모호한 모방 문제는 여전히 존재한다.
  • 표절 및 부정행위
    입시, 과제, 이력서 등 다양한 분야에서 AI를 활용한 표절 우려가 있다. AI 사용 여부를 판단하기 어렵고, 이에 대한 제도적 대응에 대한 의견이 갈린다.
  • 노동의 본질 저해
    AI가 창작, 요약, 문서 작성 등 고차원 작업을 수행하면서 기존 직무를 위협할 수 있다. 자동화의 범위가 확장되며, 노동시장에 구조적 변화가 예상된다.

 

 ⭐️ ⭐️ ⭐️ 3. 책임감 있는 AI 핵심 요소 

  • 공정성 (Fairness)
    공정성은 시스템이 다양한 사용자 집단에 미치는 영향을 말한다. AI 시스템은 차별 없이 모두에게 공정하게 작동해야 하며, 포용성과 사회적 신뢰를 높이는 데 기여해야 한다. 기계 학습 모델의 알고리즘 편향을 수정하고 제거하는 프로세스다.
  • 설명 가능성 (Explainability)
    AI의 의사결정 과정을 사람이 이해할 수 있어야 한다. 설명 가능성을 통해 사용자는 시스템 기능을 검증하고, 원치 않는 편향을 확인하고, 유용한 사용자 제어를 강화하고, AI 시스템을 적절히 신뢰할 수 있다.
  • 개인정보 보호 및 보안 (Privacy & Security)
    개인의 데이터는 허가 없이 사용되거나 노출되어선 안 된다. 사용자가 자신의 데이터를 통제할 수 있어야 하며, 외부 침해로부터 보호되어야 한다.
  • 투명성 (Transparency)
    AI 시스템의 목적, 작동 방식, 한계를 명확히 공개해야 한다. 이를 통해 사용자는 정보에 입각해 기술을 신뢰하고 사용할 수 있다.
  • 진실성 및 견고성 (Integrity & Robustness)
    예상치 못한 상황이나 오류 속에서도 AI는 안정적이고 신뢰할 수 있어야 한다. 환경 변화나 입력 변동에도 정확성과 안전성을 유지해야 한다.
  • 거버넌스 (Governance)
    AI 거버넌스는 연구 개발(R&D)에서 배포에 이르기까지 AI의 책임, 위험 완화, 감독을 보장하는 데 도움이 되는 지침 프로세스 및 제도적 메커니즘을 제공한다. 조직은 책임 있는 AI 개발과 사용을 위한 내부 정책과 프로세스를 갖춰야 하며, 법적·사회적 기준을 준수해야 한다.
  • 안전성 (Safety)
    AI는 개인이나 사회 집단에 해를 끼치지 않도록 신중하게 설계되고 테스트되어야 하며, 오용이나 편향 발생 가능성도 사전에 고려해야 한다.
  • 제어 가능성 (Controllability)
    AI의 작동을 모니터링하고 필요시 개입할 수 있어야 한다. 인간의 가치와 목적에 부합하도록 시스템을 조정할 수 있는 구조가 필요하다.

 

4. 책임감 있는 AI의 비즈니스 이점

  • 신뢰와 평판 향상
    공정하고 안전한 AI는 사용자 신뢰를 높이고, 브랜드 이미지와 평판을 강화하는 데 기여한다. 고객은 신뢰할 수 있는 시스템에 더 적극적으로 참여한다.
  • 규정 준수
    AI 관련 법규가 강화되는 추세에서, 윤리적 기준을 갖춘 기업은 개인정보 보호, 공정성, 책임성, 투명성 등 규제 요구를 보다 효과적으로 충족할 수 있다.
  • 위험 완화
    책임감 있는 AI는 편향, 정보 유출, 보안 사고, 사회적 부작용 등 다양한 위험 요소를 줄여 법적 책임과 비용 부담을 최소화한다.
  • 경쟁 우위 확보
    AI 윤리에 민감한 소비자와 시장 환경 속에서, 책임 있는 AI 운영은 차별화된 경쟁력으로 이어진다. 신뢰 기반 브랜드로 자리매김할 수 있다.
  • 의사 결정의 질 향상
    편향 없는 신뢰할 수 있는 AI는 더 정확한 예측과 판단을 가능하게 하며, 데이터 기반 의사결정의 질을 높인다.
  • 제품 및 비즈니스 혁신
    다양성과 포용성을 반영한 AI 개발은 창의적이고 혁신적인 솔루션으로 이어지며, 새로운 시장 기회를 창출할 수 있다.

 

 

 

 

반응형