본문 바로가기
카테고리 없음

로봇처럼 생각해보기

by Issuetok 2022. 9. 23.

인공지능 AI처럼 생각하기

머신 러닝의 미래에 대한 주제입니다. 오늘날 사용되는 인공 지능은 약한 AI로 간주됩니다. 일반적으로 인간보다 한두가지 특정 작업을 수행하고 종종 더 나은 성능을 발휘하도록 설계 되었기 때문입니다. 그러나 이시점에서 논란의 여지가 있는 AI 연구의 미래에는 인간보다 많은 또는 모든 작업을 더 잘 수행 할 수있는 강력한 AI 또는 초 지능 개발에 관한 아이디어가 포함됩니다. AI 안전 연구는 그러한 첨단 기술을 잘못 다루면 발생할수 있는 잠재적 위험에 대해 우려하는 일부 과학자들에게는 우선 순위이지만 다른 사람들은 여전히 인간 수준의 강력한 AI를 달성할 가능성에 의문을 제기하고 있습니다. 인공 지능은 놀라운 일을 할 수 있지만 인간에게는 매우 간단하고 AI에게는 엄청나게 어려운 다른 것들이 있습니다. 이해하기 위해서는 인간이 의사 결정을 내리는 방법과 과정을 생각하는 것이 도움이됩니다. 일부 작업이 컴퓨터에 설명하기 어려울수 있는 방법, 당연한 것, 일부 프로세스를 자동화하는 방법에 대해 설명하고 있습니다. 한번 사진의 내용을 식별하는 작업을 살펴보겠습니다. Karen Zack은 트위터에 재미있는 컬렉션을 보유하고 있습니다. 사진의 내용을 식별하는 방법에 대해 생각해야합니다. 우리 인간은 그 차이를 알 수 있기 때문입니다. 다른 한편으로 우리는 매우 면밀히보아야합니다. 각 사진 그룹에서 물체의 색상, 질감 및 모양은 비슷합니다. 예를 들어 labradoodle과 프라이드 치킨의 차이를 감지하기 위해 인공 지능을 만들고 있다면 무엇을 찾아야합니까?. 작동하지 않는 경우가 있습니까?. 예를 들어 AI를 통해 눈을 찾도록 프로그래밍 할 수 있지만 닭의 검은 점이 알고리즘에 속일 수 있습니다. 이는 상당히 어려운 문제입니다. 사실 현재의 AI는 이러한 유형의 사진을 실제로 잘 구별 할 수 있습니다. 트위터에서 그러한 알고리즘의 훌륭한 예를 볼 수 있습니다. 이것은 그림에 표시된 것을 설명하는 AI 프로그램입니다. 일반적으로 훌륭하게 작동하지만 항상 올바르게 작동하지는 않습니다. 그리고이 모든 것이 중요합니다. 우리 인간은 이미지 처리에 능숙하지만 컴퓨터에서는 복잡하고 어려운 작업입니다. 일부 기술적 세부 사항에 대한 개요를 제공합니다. 그러나 AI는 사람들이 보는 것을 인식하는데 능숙하지 않습니다. 이 기술이 우리 삶에 더 많이 등장함에 따라 이러한 차이점을 이해하는 것이 중요해졌습니다. 예로 자율 주행 자동차는 주변의 세계를 처리해야합니다. 즉, 벽이나 트럭이 어떻게 장애물인지 파악하는게 중요해졌습니다. 다음에 사진을 살펴볼 때 어떤 것이 시작되고 끝나는지 어떻게 사진에 무엇이 있는지 무엇이 혼란 스러울 수 있는지 알아내야 합니다. 인공 지능은 이와는 다른 방식으로 진행될 수 있지만 인공 지능이 정보를 처리하는 방법을 고려할 때 정보 처리 방식을 반영하는 것이 도움이됩니다. 생각을 더 깊이 이해하면 모든 인간 지식의 도움없이 AI가 동일한 작업을 수행하는데 어떤 어려움이 있는지 통찰 할 수 있습니다. 머신 러닝은 컴퓨터가 명시 적으로 프로그래밍하지 않고도 학습 할 수있는 인공 지능 AI 응용 프로그램입니다. 기술은 인공 일반 지능으로 나아가고 있습니다. 기계 지능이 인간이 수행 할 수있는 지적 노력을 수행 할 수있는지 확인해야합니다. 이러한 추세는 클라우드 컴퓨팅의 유비쿼터스가 높아져 컴퓨팅 성능이 향상되고 알고리즘의 정교성이 향상되며 데이터 저장 및 수집 비용이 감소하며 데이터의 일반 가용성이 향상됩니다. Google의 공학 이사인 미래 학자 Ray Kurzweil은 2029년까지 컴퓨터에 인간 수준의 지능이있을 것이라고 예측했습니다. 1990년대 이후 Kurzweil은 86%의 정확도로 147개의 미래 예측을 수행했습니다. 컴퓨터가 시간이 지남에 따라 배울 수 있고 결국 스스로 인간처럼 강력 해지면 인식하는 법을 배울 수도 있습니다. 인간의 경우 자기 인식은 유아기에 발달 합니다. 아이들이 거울에 반사 된 움직임과 자신의 움직임을 일치시킬 수 있을때 반사적 자각은 일반적으로 15-18개월 경에 시작하여 24-26개월경에 발달하는 아동의 특성이됩니다. 동물에게도 마찬가지입니다. 1970년에 심리학자 고든 갤럽 주니어는 동물이 거울로 자신을 알아볼 수 있는지 테스트하는 방법을 고안했습니다. 아시아 코끼리, 오랑우탄 및 침팬지와 같은 몇 종은 지나 갔지만 일관되로록 적용되지 않았습니다. 대부분의 동물은 자각하지 않으며 거울에서 자신의 반사를 인식 할 수 없습니다. 2008 년에 유럽의 두 까치가 거울 시험을 통과했지만 다른 동물은 인공 지능 AI를 통과하지 못했습니다. 동물 거울 시험의 혼합 결과에 대한 수많은 가능한 이유가 있습니다. 결정적인 답변을 얻으려면 더 많은 연구가 필요합니다. 암석이나 토스터와 같은 무생물은 자각하지 않으며 뇌와 감각 입력이 모두 부족하다는 것은 말할 필요도 없습니다. 그러나 인간의 시각, 청각, 접촉, 미각 및 냄새와 유사한 감각 입력 기능을 갖춘 컴퓨터 로봇이 거울에서 자신을 인식 할 수 있습니까? 기술적으로는 그렇습니다. 로봇의 컴퓨터 두뇌는 거울의 반사가 정의 된 감각 입력 기준을 충족하면 변수 자체가 설정되도록 프로그래밍 할 수 있습니다. 고유 식별자는 바코드처럼 단순하거나 사람 지문, 얼굴 및 신체와 유사한 고유 한 물리적 특성의 조합만큼 정교 할 수 있습니다. 그러나 프로그래밍되어 자기자신을 인식한다고해서 인간과 같은 의미로 로봇을 자각하지는 않으며 컴퓨터 프로그램의 하드 코딩 변수는 기계 학습이 아닙니다. 감각 입력 기능이 장착되어 있고 로봇을 식별 할 수있는 충분한 교육과 데이터가 제공되었지만 기계 자체를 인식하도록 명시적으로 프로그래밍되지 않은 기계 학습 기능이있는 로봇을 살펴 보겠습니다. 로봇이 거울 앞에서 팔을 올리라고 명령하고 예상되는 움직임을 본다면 로봇은 결국 반사에서 볼 수있는 팔이 자신의 움직임을 흉내내는 다른 로봇의 팔이 아니라는 느낌을 갖게됩니다. 여러 번의 시행 착오를 통한 학습과 경험을 통해 기계는 결국 자기 감각을 개발하고 인식 할 수 있습니다. Cogito ergo sum은 프랑스의 수학자, 과학자, 형이상학 철학자인 그는 일반적으로 현실과 존재 그 자체의 근본적인 본질을 연구했습니다. 그는 생각을 의식의 관점에서 정의하고 있습니다. 인공 지능이 달성되고 기계가 인간의 능력과 구별 될 수 없게되면 기술적 특이성은 인간의 행로를 영원히 바꾸어 의식 하고 존재 한다는 의미로 정의할 수 있습니다.

댓글0