산업 제조
산업용 사물 인터넷 | 산업자재 | 장비 유지 보수 및 수리 | 산업 프로그래밍 |
home  MfgRobots >> 산업 제조 >  >> Industrial Internet of Things >> 사물 인터넷 기술

책임감 있고 신뢰할 수 있는 AI 구축

FICO의 Scott Zoldi

AI 사용이 더욱 보편화됨에 따라 데이터 과학자와 조직은 '최선을 다하는' 것만으로는 충분하지 않습니다. FICO 의 AI 전문가 Scott Zoldi AI 옹호자의 부상으로 책임감 있는 AI가 기대와 표준이 될 것이라고 설명합니다.

최근 몇 년 동안 데이터와 AI는 의료 및 소매에서 은행 및 보험에 이르기까지 전략과 서비스를 알리고 구체화하기 위해 다양한 산업에서 널리 사용되었습니다. 그리고 가장 최근에 AI는 코로나바이러스와의 전쟁에서 추적에 앞장섰습니다.

그러나 디지털 방식으로 생성된 데이터의 양이 증가하고 AI가 지원하는 자동화된 의사 결정에 대한 필요성이 증가하면서 AI 의사 결정 알고리즘 이면의 추론에 점점 더 초점을 맞추면서 기업과 정부에 새로운 과제가 제기되고 있습니다.

AI가 의사 결정에 영향을 미치는 개인으로부터 더 멀리 떨어져 의사 결정을 내리면 결정이 더 냉담해지거나 심지어 부주의해 보일 수 있습니다. 조직에서 인기 없는 결정의 근거로 데이터와 알고리즘을 인용하는 것은 드문 일이 아니며 이는 존경받는 리더가 실수를 저지르는 경우 우려의 원인이 될 수 있습니다.

2016년 마이크로소프트의 인종차별적이고 공격적인 온라인 챗봇, 2018년 여성 지원자를 무시했던 아마존의 AI 채용 시스템, 2019년 트럭을 정지된 도로 표지판으로 착각한 후 오토파일럿에서 충돌한 테슬라 자동차가 그 예입니다.

잘못된 의사결정 가능성과 더불어 AI 편향 문제도 있습니다. 그 결과 소비자 권리를 보호하고 AI 개발을 면밀히 주시하기 위해 새로운 규정이 도입되었습니다.

책임감 있는 AI의 기둥

조직은 지금 강력한 AI를 시행해야 합니다. 이를 위해 그들은 책임 있는 AI의 세 가지 기둥인 설명 가능성, 책임성 및 윤리성을 강화하고 표준을 설정해야 합니다. 이를 통해 모든 유형의 조직이 올바른 디지털 결정을 내리고 있다고 확신할 수 있습니다.

<노스크립트>

설명 가능성 :AI 의사결정 시스템에 의존하는 비즈니스는 비즈니스 의사결정에 도달하기 위해 의사결정 변수 간의 관계를 캡처하는 알고리즘 구성이 있는지 확인해야 합니다. 이 데이터에 대한 액세스를 통해 비즈니스는 모델이 결정을 내린 이유를 설명할 수 있습니다. 예를 들어 거래를 사기 위험이 높은 거래로 표시했습니다. 그런 다음 인간 분석가는 이 설명을 사용하여 결정.

책임 :기계 학습 모델은 기계 학습의 한계와 사용되는 알고리즘에 대한 신중한 생각에 중점을 두고 적절하게 구축되어야 합니다. 기술은 투명하고 규정을 준수해야 합니다. 예를 들어 점수는 위험 증가에 따라 적절하게 조정됩니다.

설명 가능한 AI 외에도 겸손한 AI의 개념이 있습니다. 모델이 훈련된 데이터와 유사한 데이터 예제에만 사용되도록 보장합니다. 그렇지 않은 경우 모델을 신뢰할 수 없으며 대체 알고리즘으로 다운그레이드해야 합니다.

윤리 :설명 가능성과 책임성을 기반으로 윤리적 모델을 테스트하고 차별을 제거해야 합니다. 설명 가능한 기계 학습 아키텍처를 통해 일반적으로 대부분의 기계 학습 모델의 내부 작동을 숨기는 비선형 관계를 추출할 수 있습니다. 이러한 비선형 관계는 모델이 훈련된 데이터를 기반으로 학습되고 이 데이터가 암묵적으로 사회적 편견으로 가득 차 있는 경우가 너무 많기 때문에 테스트해야 합니다. 윤리적 모델은 편견과 차별이 명시적으로 테스트되고 제거되도록 합니다.

책임 있는 AI를 시행하는 세력

책임감 있는 AI 모델을 구축하는 데는 시간과 노력이 필요하며, 지속적으로 책임 있는 AI를 시행하기 위해서는 세심하고 지속적인 조사가 중요합니다. 이 조사에는 규정, 감사 및 옹호가 포함되어야 합니다.

규정은 알고리즘 사용에 대한 행동의 기준과 법의 지배를 설정하는 데 중요합니다. 그러나 결국 규정이 충족되거나 충족되지 않으며 규정과의 일치를 입증하려면 감사가 필요합니다.

규정 준수를 입증하려면 감사 가능한 모델 및 모델링 프로세스를 만들기 위한 프레임워크가 필요합니다. 이러한 감사 자료에는 모델 개발 프로세스, 사용된 알고리즘, 편향 감지 테스트, 합리적인 결정 및 채점 사용에 대한 데모가 포함됩니다. 오늘날 모델 개발 프로세스 감사는 우연한 방식으로 수행됩니다.

불변의 모델 개발 표준, 테스트 방법 및 결과를 시행하고 기록하기 위해 새로운 블록체인 기반 모델 개발 감사 시스템이 도입되고 있습니다. 또한 모델 개발 주기 전반에 걸쳐 데이터 과학자 및 경영진의 승인에 대한 자세한 기여를 기록하는 데 사용됩니다.

<노스크립트>

미래를 내다보면 데이터와 AI로 '최선을 다하는' 조직만으로는 충분하지 않을 것입니다. AI 옹호자들의 등장과 AI 시스템의 잘못된 결과로 인한 실질적인 고통으로 책임감 있는 AI는 머지 않아 전 세계적으로 기대와 표준이 될 것입니다.

조직은 지금 책임 있는 AI를 시행하고 AI 설명 가능성, 책임 및 윤리에 대한 표준을 강화 및 설정하여 디지털 결정을 내릴 때 책임감 있게 행동해야 합니다.

저자는 FICO의 최고 분석 책임자인 Scott Zoldi 박사입니다. .

저자 소개

Scott Zoldi 박사는 FICO의 최고 분석 책임자입니다. FICO에서 Scott은 110개의 저작된 특허를 작성하는 일을 담당했으며 56개는 부여되고 54개는 보류 중입니다. Scott은 새로운 분석 제품 및 빅 데이터 분석 애플리케이션의 개발에 적극적으로 참여하고 있으며, 그 중 다수는 적응 분석, 협업 프로파일링 및 자체 교정 분석과 같은 새로운 스트리밍 분석 혁신을 활용합니다. Scott은 Software San Diego 및 Cyber ​​Center of Excellence의 두 이사회에서 근무하고 있습니다. Scott은 박사 학위를 받았습니다. Duke University에서 이론 및 계산 물리학 박사.


사물 인터넷 기술

  1. 디지털 메모리 용어 및 개념
  2. C# 변수 및 (기본) 데이터 형식
  3. Python 유형 변환 및 유형 캐스팅
  4. Raspberry Pi 및 Python으로 로봇 구축
  5. 동맹 구축 및 성공 촉진
  6. 하이퍼컨버전스 및 보조 스토리지:2부
  7. 레거시 인프라에 보안 구축
  8. 빅 데이터 및 건물 분석이 어디에도 없는 이유:1부
  9. IoT 및 데이터에 대한 이해
  10. 기술에서 앞서가는 IoT 및 AI