본문 바로가기
카테고리 없음

인공 지능 개발의 문제점

by Issuetok 2022. 9. 25.

개발에 따른 책임과 사회적, 경제적 영향은?.

AI의 발달로 이해당사자가 직면한 난제에 기여하는 요소는 다음과 같습니다. 의사 결정의 문제. 투명성과 해석성입니다. 인공지능이 자율주행차부터 보험금 지급 관리까지 다양한 업무를 수행하면서 AI 요원의 결정을 이해하는 것이 중요하게됐습니다. 그러나 알고리즘 결정과 관련한 투명성은 때때로 기업이나 주 정부의 비밀 유지나 기술 사용능력과 같은 것에 의해 제한됩니다. 모델의 내부 의사결정 논리가 프로그래머에게도 항상 이해되는 것은 아니기 때문에 머신러닝은 이것을 더욱 복잡하게 만들게됩니다. 학습 알고리즘이 개방적이고 투명할 수 있지만 알고리즘이 생산하는 모델은 그렇지 않을 수 있습니다. 이것은 기계 학습 시스템의 개발에 영향을 미치지만, 보다 중요한 것은 책임감입니다. 자율주행차가 기술이 제대로 작동하는지 확인하기 위해뿐만 아니라 사고 발생 시 책임까지 따지기 위해 구체적인 조치를 택하는 이유를 우리는 생각해봐야 합니다. 데이터 품질 및 치우침. 머신러닝에서 모델의 알고리즘은 표현되는 데이터만큼만 우수할 것입니다. 이는 편향된 데이터가 편향된 결정을 내리게 된다는 것을 의미합니다. 예로 위험 평가를 수행하는 알고리즘은 미국의 일부 법률 관할구역에서 미래에 범죄를 저지를 범죄자의 위험을 결정하기 위해 사용되고 있습니다. 이러한 알고리즘이 인종적으로 편향된 데이터에 대해 훈련된다면, 그들은 다른 인종에 비해 특정 인종의 개인에게 더 큰 위험을 부여할 수 있습니다. 신뢰할 수 있는 데이터는 중요하지만, 훈련 데이터에 대한 수요가 증가하면 데이터 수집이 촉진됩니다. 이는 새로운 패턴을 식별하거나 익명화된 정보를 재식별하는 AI의 능력과 결합되어, 새로운 유형의 고급 프로파일링을 가능하게 하므로 사용자의 기본 권리에 위험을 줄 수 있으며, 특정 개인이나 그룹을 차별할 가능성이 상당히 높습니다. 편견을 최소화하는 문제 또한 기계 학습 모델이 문제를 해결하는 방법을 이해하기 어려워서, 특히 방대한 입력 자료와 결합할 때 복잡합니다. 따라서 조정하기 위해 문제를 일으키는 구체적인 데이터를 정확히 파악하기 어려울 수 있습니다. 만약 사람들이 시스템이 편향되었다고 느낀다면, 그것은 기술에 대한 자신감을 약화시킬 수도 있습니다. 안전과 보안은 AI 에이전트가 환경을 배우고 교류하면서 중요한 요소로 떠오르고 있습니다. 그것들은 그 행동의 영향에 대한 무관심을 포함한 예측 불가능하고 해로운 행동에서 비롯될 수 있습니다. 인공 지능이 목표에 더 쉽게 도달할 수 있는 방법을 찾지만 청소로봇이 카펫 아래 흙을 쓸는 등 설계자의 의도에 부합하지 않는 오류도 위험성의 한 예로 볼수 있습니다. 인공 지능의 안전성은 AI가 환경에서 학습하는 방법에 의해 제한될 수도 있습니다. 강화 학습에서 이것은 소위 탐구, 탐험 딜레마에서 비롯됩니다. 이는 인공 지능이 더 높은 보수를 창출할 수 있는 다른 옵션을 탐색하기 위해 성공적인 문제 해결 전략에서 벗어날 수 있다는 것을 의미합니다. 이는 자율주행차가 잘못된 도로의 주행으로 인한 사고를 발생하는것과 같은 결과를 초래할 수 있습니다. 자율 시스템이 알고리즘을 조작하려는 악의적인 행위자에 의해 악용될 위험도 있습니다. 트위터에서 다른 사용자와의 상호작용을 통해 배우기 위해 구축한 챗봇 테이의 사례가 대표적입니다. 그것은 트위터 사용자에 대해 공격을 하게 구축되었고 인종차별적인 행동을 하도록 훈련됐습니다. 소위 수리적 학습의 다른 예로는 비정상적인 네트워크 트래픽 검출에 대한 스팸 필터나 시스템의 훈련 데이터에 영향을 미치려고 하는 공격을 포함합니다. 훈련 데이터를 조작하거나 인공 지능의 행동을 악용하는 능력도 머신러닝 모델의 투명성에 관한 이슈를 부각시킵니다. 교육 데이터와 관련된 기술에 대한 자세한 정보를 공개하면 AI 에이전트가 적대적 학습에 취약해질 수 있습니다. 알고리즘 결정의 투명성에 관한 논쟁에서 안전과 보안에 대한 고려가 고려되어야 하는 중요한 문제라고 볼 수 있습니다. 책임감의 문제. 학습 알고리즘의 강도와 효율성은 단계별 지시 없이 규칙을 생성할 수 있는 능력에 기초 합니다. 이 기술은 얼굴 인식이나 자연어 해석과 같은 복잡한 작업을 수행하는 데 효율적이라는 것이 증명되었지만 문제가 없는것은 아닙니다. 기계가 스스로 학습하면 프로그래머들은 제어력이 떨어지며 비기계 학습 알고리즘은 편견을 반영할 수 있지만 알고리즘의 특정 출력 이면의 추론은 설명하기 어려워집니다. 구체적인 조치가 취해진 이유를 설명할 수 없는 문제도 발생하게 됩니다. 인터넷 협회는 인터넷이 제공하는 가치를 뒷받침하는 핵심 능력이라고 우리가 믿는 것과 관련하여 다음과 같은 원칙과 권고를 개발했습니다. 인터넷 기반 서비스에서의 AI의 전개가 새로운 것은 아니지만, 현재의 경향은 AI를 인터넷의 미래 발전과 이용에서 점점 더 중요한 요소로 지적하고 있는 현실입니다. 이러한 지침 원칙과 권고사항은 토론을 진행시키기 위한 첫 번째 시도라고 볼 수 있습니다. 나아가 본 논문은 AI를 둘러싼 구체적인 과제에 초점을 맞추고 있지만, AI의 개발과 사물인터넷의 확대 사이의 강한 상호의존성은 IoT 기기의 상호운용성과 보안성에 대한 면밀한 검토가 요구됩니다. 배치 및 설계 시 윤리적 고려사항을 살펴보겠습니다. 원칙은 AI 시스템 설계자와 구축자는 기술에 사용자 중심 접근법을 적용해야 합니다. 인터넷과 인터넷 사용자에게 보안 위험을 초래하지 않는 AI 시스템 구축에 대한 책임성을 고려할 필요가 있습니다. 윤리적 표준 채택도 중요합니다. 인공지능 설계에 있어서 윤리적 고려의 원칙과 기준을 준수하는 것은 연구자와 산업이 앞으로 올바른 방향으로 나아갈 수 있도록 지침이 됩니다. 혁신 정책에서 윤리적 고려 사항 촉진은 혁신 정책은 자금조달과 같은 것들의 전제조건으로서 윤리적 표준을 준수할 것을 요구해야 합니다. 인공 지능 시스템의 해석성 보장으론 특히 이러한 결정이 공공 안전에 영향을 미치거나 차별적 관행으로 귀결되는 경우, AI 대리인이 내린 결정은 이해할 수 있어야 합니다. 알고리즘 결정의 인간 해석 가능성 보장으로 AI 시스템은 설계자가 AI 에이전트의 행동을 설명할 수 있는 최소한의 요구 사항으로 설계되어야 합니다. 공공 안전에 잠재적으로 심각한 영향을 미칠 수 있는 일부 시스템은 사고 발생 시 정보를 제공하는 기능도 갖춰야 합니다. 이용자 권한 부여도 중요합니다. AI를 활용한 서비스 제공자는 이용자가 의사결정이 내려진 이유에 대해 기본적인 설명을 요청하고 받을 수 있는 능력을 통합할 필요가 있습니다. 공공 권한 부여로는 AI가 가능한 서비스에 대한 국민의 이해 능력과 그 작동 방식 등이 기술에 대한 신뢰 확보가 관건 입니다. 알고리즘 리터러시는 기본 기술이어야 합니다. 소셜미디어 플랫폼이나 자율주행차 등에서의 정보 큐레이션이든, 알고리즘과 자율적 의사결정의 역할에 대한 사용자들의 인식과 기본적 이해가 필요합니다. 기술은 또한 기술 사용에 관한 사회적 규범을 형성하는 데 중요합니다. 예를 들어 AI에 위임하기에 적합하지 않을 수 있는 의사 결정 식별은 문제가 발생할 수 있습니다. 보안 위험 때문에 일반적으로 서비스의 기계 학습 기법 및 훈련 데이터에 대한 완전한 투명성은 권장되지 않지만, 대중에게 충분한 정보를 제공하여 사람들이 서비스의 결과에 의문을 제기할 수 있도록 해야 합니다. 인공 지능이 자율적으로 행동하고, 시간이 지남에 따라 사람의 지시 없이 행동을 적응시킬 수 있는 능력은 중대한 안전과 직결되므로 지속적인 모니터링을 요구 합니다. 효율적으로 인공 지능을 관리하기 위해서 인간은 통제권을 가져야 합니다. 어떤 자율 시스템이라도 사람이 활동을 방해하거나 시스템을 정지시키는 것을 허용해야 합니다. 특히 인간의 생명과 안전에 대한 위험이 큰 AI 시스템 설계에 새로운 의사결정 전략에 대한 인간 점검을 통합할 필요가 있을 수도 있습니다. 무엇보다 안전이 중요시 되어야 합니다. 자율 시스템의 모든 배포는 AI 에이전트가 환경과 안전하게 상호작용하고 의도한 대로 기능하는지 확인하기 위해 사전에 광범위하게 테스트해야 합니다. 자율 시스템은 작동 중에 모니터링해야 하며, 필요에 따라 업데이트 또는 수정해야 합니다. 또한 AI 시스템은 데이터를 책임져야 합니다. 필요한 것만 사용하고 더 이상 필요하지 않은 경우 삭제해야 합니다. 그들은 이동 중과 휴식의 데이터를 암호화해야 하며, 인가된 사람에 대한 접근을 제한해야 합니다. AI 시스템은 개인 정보 보호 및 개인 데이터 법과 모범 사례에 따라 데이터를 수집, 사용, 공유 및 저장해야 합니다. AI 시스템에 제공되는 지침과 데이터에 대해 신중히 생각해야 합니다. AI 시스템은 편향되거나 부정확하거나 불완전하거나 오해의 소지가 있는 데이터로 훈련해서는 안되며 인터넷에 연결한 경우 다음을 확보해야 합니다. 인터넷에 연결된 AI 시스템은 보호뿐 아니라 차세대 봇넷이 될 수 있는 오작동이나 악성코드에 감염된 AI 시스템으로부터도 인터넷을 보호해야 합니다. 높은 수준의 장치, 시스템 및 네트워크 보안이 적용되어야 합니다. 성실하게 행동하는 보안 연구자들은 기소될 염려 없이 AI 시스템의 보안을 책임감 있게 테스트할 수 있어야 합니다.

댓글0