책 이미지
책 정보
· 분류 : 국내도서 > 종교/역학 > 기독교(개신교) > 기독교(개신교) 교회 > 교회교육
· ISBN : 9791161663036
· 쪽수 : 272쪽
· 출판일 : 2025-09-05
책 소개
목차
발간사
추천사
1 AI 시대의 도래와 교육의 변화 / 김세영 교수(한동대학교)
2 AI 시대에 대한 신학적 이해 / 권수경 박사(일원동교회)
3 AI를 활용한 교회교육의 새로운 패러다임 / 함영주 교수(총신대학교)
4 AI 기술을 활용한 교회교육 콘텐츠 개발 / 김수환 교수(총신대학교)
5 AI 시대의 목회자 / 이수인 교수(아신대학교)
6 AI 시대 다시 상상하는 교회 공동체 / 김효숙 교수(장로회신학대학교)
7 AI 활용의 윤리적 고려사항 / 신승범 교수(서울신학대학교)
8 AI 시대 미래교육을 위한 제언 / 이현철 교수(고신대학교)
저자소개
책속에서
인공지능은 사람이 만든 것이다. 그래서 인공(artificial)이다. 사람은 오랜 세월 다양한 도구를 사용해 왔는데 인공지능은 인간의 지적 활동을 대신하는 도구다. 그래서 지능(intelligence)이다. 인간의 지성적 활동을 컴퓨터를 이용해 더 효율적으로 하고자 하는 것이다. 사람은 머리가 좋으면 다른 것들도 다 잘한다. 인공지능 역시 성능이 향상되면서 지성 분야를 넘어 사람의 삶 전반을 장악해 가고 있다. 머리가 몸 전체를 주도하듯 인공지능도 사람의 여러 활동과 다양한 도구를 자신의 통제권으로 끌어들여 융합하고 있다. 인공지능의 적용 범위가 넓어지면서 인간이 만들어 사용해 온 각종 도구가 강해지고 정교해지면서 엄청난 발전을 인류에게 안겨주고 있다.
발전을 누가 마다하겠는가. 모든 분야의 효율성이 획기적으로 제고(提高)된다. 산업, 의료, 교육에서 정확도와 정밀도가 탁월하게 향상된다, 일은 인공지능에게 다 맡기고 이제 인간은 일에서 해방된 멋진 삶을 꿈꾸게 되었다. 일은 인간 삶의 기본이었으니 인간의 삶 자체가 근본적인 변혁을 겪는 셈이다. 하여 연구가들은 지금도 밤을 새운다. 발전 가능성도 무한하여 엄청난 돈과 노력이 인공지능 분야에 쏟아지고 있다. 수많은 사람이 인공지능이 가져올 미래를 부푼 가슴으로 바라본다. 소위 인공지능 부머(boomer)들이다. 붐은 굉음으로서 인기 상승이나 급격한 증가를 뜻한다. 인공지능이 인류 발전에 크게 공헌할 것이라는 기대감이다. 적어도 지금 모습은 그래 보인다. 이런 기대에 힘입어 인공지능은 전문가조차 따라갈 수 없을 정도로 빠른 속도로 발전하고 있다.
하지만 미래를 우려하는 두머(doomer)도 많다. 둠은 운명이나 파멸을 뜻한다. 이들은 인공지능이 가져올, 아니 이미 가져온, 수많은 문제점을 지적한다. 정보의 홍수 속에서 진리 문제가 외면당할 것이라 우려한다. 기계가 인간의 직장을 빼앗아 간다고 걱정한다. 자율성이 높아진 기계는 인간을 다치게 하고 죽일 수 있다. 법률적 문제도 있다. 가장 큰 문제는 인공지능 자체가 너무 발전한다는 점이다. 사람을 점점 닮아가 머지않아 분간이 어려운 단계로 갈 수도 있다. 무엇이 든 인공지능과 접목만 되면 획기적으로 좋아진다. 수많은 분야가 하나로 융합되고 있다. 그 결과는 무엇일까? 인공지능이 인간의 통제를 벗어나 독립적인 두뇌가 되는 건 아닐까? 인간을 능가할 뿐 아니라 인간을 대체하고 통제하는, 어쩌면 인간을 제압하는 단계까지 갈지도 모른다.
인공지능이 등장한 순간에 위험에 대한 경고도 바로 나왔다. 특히 관심을 끈 것은 2014년 물리학자 스티븐 호킹의 경고였다. 호킹은 인공지능이 인류를 ‘끝장낼 수도 있다(could end humanity)’고 경고했는데, 이 무렵 인공지능 기술이 실제로 인류에게 위협이 될 가능성이 보였기 때문이다. 그러다가 2022년 ChatGPT가 등장하자 2023년에는 인공지능 전문가 수만 명이 집단으로 인공지능의 위험성을 경고하면서 강력한 규제의 필요성을 외쳤고 심지어 개발 중단까지 제안했다. 인공지능의 바탕인 인공 신경망을 개발한 제프리 힌튼, ChatGPT를 만든 오픈 AI의 샘 올트먼 사장, 사업가 일론 머스크 등 도 현 상황에 우려를 표하며 적극 동참했고 이후에도 여러 차례에 걸쳐 인공지능에 의한 ‘인류 멸종 위기’에 대한 경고가 반복되었다.
인공지능의 위험에 대한 경고는 알 수 없는 것에 대한 두려움에 서 나온다. 빛의 속도로 발전하는 인공지능 기술을 보며 사람들은 인공지능이 어디까지 발전할지 몰라 두려워한다. 출발점은 인공지능의 알고리즘이다. 딥 러닝에 근거해 ChatGPT를 만든 사람들은 자신들이 그 기계의 알고리즘을 만들었지만 어떤 방식으로 이렇게 훌륭한 결과물을 생성하는지 그 메커니즘을 몰라 무섭다고 고백한다. 사실 호킹도 인공지능은 불투명한(opaque) 알고리즘을 사용하기 때문에 애초부터 문제가 있었다고 지적한다. 연구가들이 많은 것을 감추고 있다는 의심도 있다. 기계는 인간이 만든 것 아닌가? 인간 이 만들어 놓은 그대로 움직이게 되어 있는 게 기계인데, 이게 딥 러닝 이후 인간이 이해하기 어려운 반응을 보이고 있다. 기계의 작동 원리를 다 이해해도 위험이 예상되는 상황에, 최고 전문가조차 이해 못하는 무언가가 있다 하니 겁이 안 날 수가 없는 상황이다.
알고리즘의 모호성은 전문가들만의 우려일 수 있다. 그래서 비전 문가들에게는 밝히지 않는 게 낫다는 주장도 있다. 그런데 그런 모호한 알고리즘을 통해 생성해 내는 자료에는 그와 통하는 또 다른 위험이 담겨 있다. 자료의 진리성을 담보할 수 없다는 점이다. 인공지능, 특히 생성형 인공지능이 만들어내는 자료는 참, 거짓에 관심이 없다. 인공지능 제작자가 잘못된 정보나 위험한 정보, 이를테면 인종차별이나 전체주의를 두둔하는 정보를 퍼뜨릴 수도 있다.



















