1. 인공지능 정의
인공지능은 사람과 같이 행동하도록 만들어진 장치 또는 소프트웨어 장치가 프로그램을 통해 판단하고 결정을 내리는 의사가 있는 것처럼 행동하는 것을 의미한다. 이는 지능을 인공적으로 만들어 내는 과정으로, 생물학적 의미는 없다. 이와 관련하여 여러 과학자들은 각기 다르게 인공지능을 정의하고 있으며, John McCarthy는 기계가 학습과 기타 다른 지능의 특징을 시뮬레이션할 수 있을 것이라고 주장하였다. Patrick Henry Winston은 컴퓨터가 지능을 가질 수 있도록 하는 아이디어를 연구하는 학문이라고 설명하였고, Charniak와 McDermott는 계산 모델을 이용하여 정신적 기반을 연구하는 학문으로 정의하였다.
인공지능의 범주는 여러 분야로 나뉘고 있다. Vision 분야는 사람들이 보고 있는 특정 피사체의 사진의 정체를 확인하기 위해 시도한 기술을 포함하며, Planning 분야는 데이터 마이닝과 자동 추론 등을 활용하여 의사결정을 위한 과정을 거치는 것을 포함한다. 이 과정은 초기 상태에서 문제 해결 상태로의 이동을 위한 Search Problem을 포함한다. Speech 분야에서는 음성을 인식하여 인간이 발성하는 음성을 이해하고 이를 컴퓨터가 다룰 수 있는 문자 정보로 변환하는 기술이 중요하다. Robotics 분야에서는 인지 로봇 공학이 제한된 계산 자원을 사용하여 복잡한 환경의 복잡한 목표를 달성하도록 인식 능력을 로봇에게 부여하는 기술을 연구하고 있다. Natural Language Processing은 컴퓨터가 인간의 언어를 알아들을 수 있게 하여 인간과 같이 말하고 쓸 수 있도록 하는 기술을 포함하며, Machine Learning은 기존의 프로그램화된 논리나 정형화된 규칙을 바탕으로 발생되는 데이터를 통해 학습하는 수학적 알고리즘을 발전시킨다.
초창기 인공지능의 발전은 컴퓨터의 등장과 함께 시작되었으며, 이 시기에는 단순한 조건 분기가 공장 자동 제어에 큰 비중을 차지하고 있었다. 기계가 작업을 자동화한다는 점에서 이러한 초기 기술은 인공지능에 비유되었으나, 현재는 사람을 대체하는 단순한 작업에 대해서는 인공지능이라고 간주하지 않는다. 두 번째 단계의 인공지능은 입력과 출력의 개수가 극단적으로 많은 경우 적절한 판단을 위해 추론이나 탐색, 저장된 지식을 사용하는 간단한 퍼즐이나 진단 프로그램과 같은 종합적인 능력을 가지게 된다. 현대의 인공지능은 패턴 인식, 퍼지 이론, 딥 러닝, 자율 학습과 같은 다양한 분야에서 여러 이론들을 배경으로 적용되고 활용되며, 단순히 이론이 적용된 기술들을 인공지능이라고 명명하지는 않는다. 강 인공지능은 어떤 문제를 스스로 생각하고 해결할 수 있도록 설계된 기계에 적용된 인공지능으로, 약 인공지능은 특정 규칙에 따라 동작하며 지능을 흉내 내는 컴퓨터 프로그램에 적용되는 인공지능으로 구분된다.
2.인공지능 탄생
인공지능이라는 용어는 수학과 컴퓨터 과학 이론인 "Computing Machinery and Intelligence"에서 탄생하였으며, 이 과정에서 튜링 테스트와 튜링 머신의 개념이 고안되었다. 다트머스 학회에서는 존 매카시가 AI라는 용어를 창안하였고, 생리학적 측면에서는 사이버네틱스, 즉 인공두뇌학과 신경망으로 정보 전달 모델링에 관한 다양한 이론이 발전하였다. 헵의 법칙은 시냅스 가소성에 대한 이론으로, 학습에 의해 시냅스가 일정한 변화를 겪는 과정을 설명하고 있으며, 이 과정에서 시냅스 강화가 이루어진다. 이는 신경 전달 물질이 많이 전달되거나 반복적인 학습을 통해 두 뉴런 사이의 관계가 강화되는 현상을 의미한다. 반대로 시냅스 약화는 신경 전달 물질이 적게 전달될 경우 두 뉴런 사이의 관계가 약해지는 현상으로, 이러한 시냅스의 가소성은 기억력과 학습 능력을 형성하는 데 밀접한 관계가 있다. 당시 전자계산기는 과학적 계산 외에도 결과 판정 기계로 사용되었으며, 결정 트리 기반의 2차원 분류를 축적하여 자동으로 판정 결과를 출력하는 방식으로 활용되었다.
3.튜링 테스트와 인공지능
튜링 테스트는 문제의 해답이나 결정이 사람이 아닌 기계에 의해 판단되는 것을 의미하며, 앨런 튜링은 "사람을 대신하는 기계의 답변이 지능을 갖고, 사람의 답변과 구별되지 않는 시대가 올 것"이라고 발언하였다. 프로그램 중 ELIZA는 1966년 MIT 인공지능 연구실에서 제작된 최초의 자연어 처리 컴퓨터 프로그램으로, 상담원과 같은 반응을 보이도록 설계되어 튜링 테스트에 통과할 가능성이 높았던 최초의 프로그램이었다. 이후 PARRY라는 프로그램은 1972년에 정신 분열증을 앓고 있는 사람과 같은 반응을 보이도록 작동하도록 설계되었으며, Jugene라는 슈퍼컴퓨터는 2014년에 13세 소년과 같은 반응을 보이며 튜링 테스트에서 최초로 통과했다. 인공지능의 트렌드는 각 기술 분야별로 시장 규모가 전망되고 있으며, 2014년 62억 달러 규모의 스마트 머신 시장은 2019년까지 매년 20% 정도의 성장율을 보일 것으로 예상되었다. 자율형 로봇의 시장 규모는 2014년 12억 달러에서 2024년에는 139억 달러로 높은 성장을 보일 것으로 예측되었다. 국내 동향으로는 미래창조과학부에서 ICBMS(초연결사회와 IoT의) 2020년 시장 규모를 2,628억 달러로 예상하고 있으며, 제품 중심이 아닌 서비스 사업으로 변화할 것으로 보인다. 빅데이터는 인공지능 분야가 활성화된 결정적 분야로, 인공지능의 다양한 분야와 기술이 빅데이터와 접목되어 클라우드를 통해 활용되고 있으며 수많은 비즈니스 도구로 변화하고 있다. Deepfake는 인공지능의 영상 합성과 조작 기술로, 단순 컴퓨터 그래픽으로 만들 때 인력과 시간이 필요한 기술을 인공지능으로 활용할 수 있는 사례로, 예를 들어 Synthesia에서 제작한 데이비드 베컴의 말라리아 캠페인 영상이 있다. 이를 통해 언어의 장벽을 해소할 수 있는 가능성이 생겼다. 해킹의 AI화는 AI 알고리즘이 대부분 오픈소스 형태로 존재하기 때문에 약점을 이용한 해킹으로 AI를 공격할 수 있는 위험이 있으며, 반대로 AI를 이용한 해킹도 가능할 수 있다. AutoML은 머신러닝을 세상에 존재하는 문제들에 자동으로 적용하여 시간이 오래 걸리는 반복적인 작업을 자동화하여 효율성과 생산성을 높인다. 많은 회사들과 개인들이 AI에 접근할 수 있는 진입 장벽이 낮아지고 있으며, AI 전문가는 아직 부족하지만 AutoML 덕분에 전문가의 필요성이 줄어들고 있다. AI를 사용할 때 필요한 비용과 복잡도가 낮아지는 추세가 확인된다. Federated Learning은 블록체인의 사생활 보호 방식과 유사한 개념으로, 개인의 데이터는 개인의 디바이스에 저장되고 알고리즘은 클라우드에 저장하여 업데이트하는 용도로만 사용된다. 이러한 방식은 개인의 데이터 보안을 보장하면서 AI를 활용할 수 있는 가능성을 제공하며, 미래에는 데이터 공유가 가능해질 수도 있다.
4. 인공지능의 붐과 신경망의 암흑기
인공지능 발전의 흐름은 크게 몇 가지 시기로 나눌 수 있으며, 1960년부터 1980년까지는 전문가 시스템과 1차 인공지능 붐이 있었던 시기이다. 1950년 이후 조건 분기를 사용하는 규칙 기반 추론 엔진과 전문가 시스템이 등장하였으며, 추론 엔진은 프로그램의 규칙을 이용하여 새로운 사실을 탐색하고, 전문가 시스템은 일반인이 기계가 판단한 지식 탐구의 결과를 참고할 수 있도록 프로그램화한 문제 처리 시스템으로 설계되었다. 전문가 시스템의 일종인 Dendral은 알려지지 않은 유기화합물에 질량 분석법을 적용하여 화합물의 구조를 파악하는 최초의 시스템으로, 화학자가 해야 할 일을 자동화하였다. MYCIN은 감염성 질병을 진단하고 항생제를 처방하며, 그 추론 과정을 자세히 설명하도록 프로그래밍된 의료 현장에서 사용되는 전문가 시스템이다. 인공지능이 해결해야 할 과제 중 하나는 사고 범위 문제이며, 존 매카시와 패트릭 헤이즈는 이 문제를 제시하였고, 인공지능은 제한된 범위에서만 정보를 처리하므로 실제로 발생하는 모든 문제를 처리할 수는 없는 한계가 있다. 하드웨어의 지속적인 발전과 개발로 인해 메모리와 CPU의 성능이 급속히 향상되었고, 이러한 처리 속도의 비약적 발전으로 인해 인공지능 연구가 활발하게 진행되었다.
1980년부터 2000년까지는 2차 인공지능 붐과 신경망의 암흑기였다. 이 시기의 신경망 연구는 단순 퍼셉트론과 패턴 인식 알고리즘에 기반하고 있었으며, 이전 신경망의 문제는 배타적 논리합을 처리하지 못하는 한계가 있었고, 사고 범위 문제를 해결하기 위한 처리 속도가 미비하였다. 다층 퍼셉트론과 오차 역전파법이 도입됨에 따라 이러한 두 가지 문제를 해결할 수 있었으나, 사고 범위 문제는 여전히 한계가 있었다.
2000년부터 2010년까지는 통계 기반 머신러닝과 분산 처리 기술이 발전하던 시기였다. 통계 기반 머신러닝 연구는 데이터를 정해진 기준에 맞춰 나누는 분류와 데이터를 활용하여 미래에 필요한 결과를 도출하는 예측으로 나뉘며, 이 두 과정을 통해 특징량을 추출할 수 있다. 베이즈 정리는 마르코프 연쇄 몬테카를로 방법의 초기 형태를 핵심으로 한 통계학 머신러닝 알고리즘의 기반이 되었고, 2000년대에 베이즈 필터를 이용한 머신러닝 시스템이 도입되었다. 이 시스템의 예로는 이메일 스팸 판별과 음성 입력 시스템의 노이즈 제거, 발음 식별 처리 등이 있다. 분산 처리 기술의 발전 또한 크게 주목받았으며, 이는 컴퓨팅 연산 능력의 한계로 사고 범위 문제를 해결하지 못한 상황에서 대용량 이미지와 동영상 처리의 필요성이 증가하였고, 대용량 데이터를 단일 컴퓨터로 처리하기 어려워짐에 따라 하드웨어와 소프트웨어를 고려한 데이터 분산 처리 기술이 발전하게 되었다. 이 시기에는 하드웨어 성능 향상과 분산 처리 기술의 발전으로 인해 신경망 연구가 활발하게 진행되었으며, 오토인코더가 등장하여 딥러닝으로 발전하게 되었다. 오토인코더란 신경망을 사용해 차원을 압축하는 알고리즘이며, 딥러닝은 컴퓨터 프로그래밍이 다양한 데이터의 특성을 학습하고 분류하며 판별하는 머신러닝 알고리즘의 집합을 의미한다.
2010년대 이후에는 심층 신경망 기반의 이미지 인식 성능이 크게 향상되었고, 3차 인공지능 붐이 시작되었다. 딥러닝을 활용한 이미지 인식 프로그램의 발전으로 인해, 통계 기반 머신러닝의 정확도가 신경망 기반 머신러닝보다 높은 것으로 알려졌다. 2012년에는 캐나다 토론토 대학 팀의 딥러닝 이미지 인식 프로그램이 ILSVRC 2012에서 성능 평가 1위를 차지하였고, 2015년에는 5% 이하의 오류율을 기록하는 딥러닝 이미지 기반 인식 프로그램이 등장하였다. 이러한 발전은 이미지와 메타데이터가 결합된 거대한 데이터베이스의 제공으로 인해 이미지 인식 프로그램들이 발전하게 되었으며, 이는 또한 이미지 인식 엔진 개발에 기여하였다. 음성 인식과 자연어 처리 분야에서도 딥러닝 기술이 광범위하게 활용되고 있는 예로, 챗봇과 번역 서비스가 있다. 이러한 시스템들은 인공지능의 실용성을 높여주며, 점점 더 많은 분야에서 사람의 작업을 지원하거나 대체하는 데 기여하고 있다.
2020년대에 들어서는 GPT와 같은 대형 언어 모델이 등장하여 본격적인 AI 사업의 시대를 열게 되었다. 이러한 기술들은 자연어 처리의 정확도와 효율성을 획기적으로 향상시켰으며, 다양한 산업에서 새로운 비즈니스 기회를 만들어 내고 있다. AI에 대한 사회적 관심과 투자도 증가하고 있으며, 이는 앞으로의 인공지능 기술 발전에 중요한 기반이 되고 있다.
인공지능 기술의 발전과 보급은 다양한 분야에서 경제적 효익을 창출하고 있으며, 이러한 기술들이 더욱 발전함에 따라 우리의 일상생활과 운용하는 방식에도 많은 변화가 예상된다. 앞으로 인공지능 시스템은 더욱 고도화되어, 보다 복잡한 문제 해결을 지원하고 인간과 협력하며 새로운 형태의 작업 환경을 만들어 가는 데 기여할 것이다. 이러한 혁신적인 변화를 통해 인공지능은 우리 사회에 깊숙이 통합될 것으로 보인다.
| 인간지능과 인공지능 (0) | 2025.01.12 |
|---|---|
| 전문가 시스템과 추론엔진, 추천 엔진 (0) | 2025.01.12 |
| 의사 결정 트리의 구축, 지식 기반 모델 (0) | 2025.01.12 |
| 규칙 기반 모델, 예시 (0) | 2025.01.11 |
| 인공지능의 연구와 미래 (0) | 2025.01.11 |