logo
logo
x
바코드검색
BOOKPRICE.co.kr
책, 도서 가격비교 사이트
바코드검색

인기 검색어

일간
|
주간
|
월간

실시간 검색어

검색가능 서점

도서목록 제공

기계의 언어, 언어의 기계

기계의 언어, 언어의 기계

신승철 (지은이)
커뮤니케이션북스
12,000원

일반도서

검색중
서점 할인가 할인률 배송비 혜택/추가 실질최저가 구매하기
12,000원 -0% 2,500원
360원
14,140원 >
yes24 로딩중
교보문고 로딩중
11st 로딩중
영풍문고 로딩중
쿠팡 로딩중
쿠팡로켓 로딩중
G마켓 로딩중
notice_icon 검색 결과 내에 다른 책이 포함되어 있을 수 있습니다.

중고도서

검색중
서점 유형 등록개수 최저가 구매하기
로딩중

eBook

검색중
서점 정가 할인가 마일리지 실질최저가 구매하기
aladin 9,600원 -10% 480원 8,160원 >

책 이미지

기계의 언어, 언어의 기계
eBook 미리보기

책 정보

· 제목 : 기계의 언어, 언어의 기계 
· 분류 : 국내도서 > 컴퓨터/모바일 > 인공지능
· ISBN : 9791143001559
· 쪽수 : 162쪽
· 출판일 : 2025-05-23

책 소개

인공지능의 핵심인 자연어 처리의 원리와 역사를 탐구한다. 기술적 이해를 바탕으로 철학, 윤리, 인문학적 관점을 더해 AI와 언어의 본질을 깊이 들여다본다.

목차

인공지능과 자연어 처리

01 자연어 처리의 역사
02 수학적 기반
03 언어의 수학적 표현
04 기계학습과 자연어 처리
05 신경망과 자연어 처리
06 트랜스포머와 현대 언어 모델
07 자연어 처리와 언어학
08 자연어 처리와 언어 철학
09 인간과 기계의 윤리
10 인공지능의 미래

저자소개

신승철 (지은이)    정보 더보기
대학 교수와 벤처 기업인을 지낸 컴퓨터과학자다. 소프트웨어 검증 전문가이며 프로그래밍언어 이론, 수리논리학, 프로그램 분석과 검증을 연구하고 가르쳤다. 연구실 창업으로 소프트웨어 검증 전문기업을 설립하고 대표를 지냈다. 현재는 코드마인드 연구고문이고 경기대학교 AI 컴퓨터공학부 겸직교수다. 컴퓨터과학을 비롯해서 과학과 인문학 전반에 걸쳐 읽고 쓴다.
펼치기

책속에서

단어 임베딩 기술은 단어를 벡터 공간에 표시할 때 단어 간의 관계가 반영되도록 벡터 간의 관계를 설정하는 방법이다. 임베딩은 말 뜻대로 하면 삽입이다. 수학에서 임베딩은 기하학, 추상대수학, 위상수학 등 여러 분야에서 등장한다. 각 분야에 따라 구체적인 정의와 역할이 다르다. 공통적으로는 어떤 공간의 값들을 다른 공간의 값들로 변환하면서 값 사이의 구조적 특성이 보존되도록 하는 함수다. 단어 임베딩 이 개념을 언어 처리에 적용한 것이다. 언어를 단어들이 관계를 맺고 있는 공간이라고 간주해 보자. 이 언어 공간 내의 단어들을 벡터 공간으로 옮기는 것이다. 언어 공간에서 관계를 맺고 있는 단어들이 벡터 공간에서도 유사한 관계를 맺도록 하는 것이 관건이다. 단어 임베딩은 학습 과정을 통해 언어 공간에서 설정된 단어 간의 관계를 벡터 공간에 반영한다.

-03_“언어의 수학적 표현” 중에서


오늘날 자연어 처리는 대부분 딥러닝을 기반으로 한다. 딥러닝은 심층 신경망을 이용하는 기계학습 방법을 말한다. 신경망은 특징 기반 기계학습과 달리 특징 설계를 따로 하지 않고 데이터를 학습한다. 신경망은 통계적 방법이나 특징 기반 기계학습 이후에 나온 기술이 아니다. 이 세 가지 방법론은 1950∼1960년대부터 서로 앞서거니 뒤서거니 하면서 발전해 왔다. 1958년에 로젠블랫이 퍼셉트론(perceptron)을 제안했다. 명시적인 알고리즘이나 규칙 없이 데이터 학습으로 분류 규칙을 만들어 내는 최초의 인공 신경망 모델이다. 심층 신경망으로 가기 전에 신경망의 초기 형태로부터 학습 원리를 생각해보자.

-05_“신경망과 자연어 처리” 중에서


트랜스포머의 주요 특징은 병렬 처리, 셀프 어텐션, 위치 인코딩이다. 단어 벡터를 처리할때 행렬 연산을 병렬로 처리함으로써 입력 단어를 동시에 처리할 수 있다. 수천 개의 코어를 이용해 병렬로 부동소수점 연산을 수행하는 GPU가 대규모 언어 모델에서 중요한 역할을 하는 이유다. 셀프 어텐션은 입력 문장과 출력 문장의 관계를 계산하는 인코더?디코더 어텐션과 달리 동일한 문장 내에서 단어 간의 관계를 계산한다. 이것은 긴 문장의 맨 앞 단어와 맨 뒤 단어 간의 관계도 별도로 계산하기 때문에 장거리 의존성 문제를 완전히 해결한다. 위치 인코딩은 트랜스포머가 순차 신경망 구조를 포기하면서, 단어 간의 순서 특성과 구문적 특성을 반영하기 위해서 도입한 것이다. 입력 문장이 주어지면 단어 임베딩으로 생성된 벡터 표현에 단어 간의 위치 정보를 추가한다.

-06_“트랜스포머와 현대 언어 모델” 중에서


이 포스팅은 쿠팡 파트너스 활동의 일환으로,
이에 따른 일정액의 수수료를 제공받습니다.
이 포스팅은 제휴마케팅이 포함된 광고로 커미션을 지급 받습니다.
도서 DB 제공 : 알라딘 서점(www.aladin.co.kr)
최근 본 책
9791143001573