알라딘

이전
다음
[중고] 머하웃 완벽 가이드 (하둡에 딱 맞는 빅데이터를 활용한 기계학습)
  • 새상품
    38,000원 34,200원 (마일리지1,900원)
  • 판매가
    12,500원 (정가대비 67% 할인)
  • 상품 상태
    최상
    • 배송료
      택배 4,000원, 도서/산간 1,000원
    • 판매자
    • 출고예상일
      통상 48시간 이내

    무이자 할부 안내

    • * 2~3개월 무이자 : 현대,하나,국민,삼성
      * 2~4개월 무이자 : 우리,BC
      * 2~5개월 무이자 : 롯데,신한
      * 2~6개월 무이자 : 농협
      ※ 제휴 신용카드 결제시 무이자+제휴카드 혜택 가능합니다.
      ※ 알라딘페이는 토스페이먼츠사 정책으로 5만원 이상 할부 선택이 가능하오니 필요시 다른 결제수단을 이용 부탁드립니다.
      ※ 오프라인결제/Non ActiveX 결제(간편결제)/카카오페이/네이버페이/페이코 등 간편결제/법인/체크/선불/기프트/문화누리/은행계열카드/ 알라딘 캐시와 같은 정기과금 결제 등은 행사대상에서 제외됩니다.
      ※ 무이자할부 결제 시 카드사 포인트 적립에서 제외될 수 있습니다.
      ※ 본 행사는 카드사 사정에 따라 변경 또는 중단될 수 있습니다.

    상품을 장바구니에 담았습니다.

    보관함에 상품 담기

    • US, 해외배송불가, 판매자 직접배송
    • 중고샵 회원간 판매상품은 판매자가 직접 등록/판매하는 오픈마켓 상품으로, 중개 시스템만 제공하는 알라딘에서는 상품과 내용에 대해 일체 책임지지 않습니다.
    중고상품 구매 유의 사항
    중고상품 구매 유의 사항

    책 정보

    · 제목 : 머하웃 완벽 가이드 (하둡에 딱 맞는 빅데이터를 활용한 기계학습)
    · ISBN : 9788979149609
    · 쪽수 : 552쪽
    · 출판일 : 2012-11-01

    책 소개

    빅데이터 맞춤 기계학습 라이브러리인 머하웃의 개념부터 활용까지 소개하는 완벽 가이드. 머하웃을 사용해서 실질 문제를 해결하는 실전 가이드로 머하웃의 추천엔진, 군집, 분류 기능을 탐험한다.

    목차

    CHAPTER 1 아파치 머하웃과의 만남
    1.1 머하웃 이야기
    __1.2 머하웃 기계학습 테마
    __1.2.1 추천엔진
    __1.2.2 군집
    __1.2.3 분류
    1.3 머하웃과 하둡으로 대용량 데이터와 씨름하기
    1.4 머하웃 설정하기
    __1.4.1 자바와 통합개발환경
    __1.4.2 메이븐 설치하기
    __1.4.3 머하웃 설치하기
    __1.4.4 하둡 설치하기
    1.5 요약

    PART 1 추천
    CHAPTER 2 추천기 소개
    2.1 추천 소개
    __2.2 처음으로 추천엔진 실행해보기
    __2.2.1 입력 데이터 만들기
    __2.2.2 추천기 만들기
    __2.2.3 결과물 분석하기
    2.3 추천기 평가하기
    __2.3.1 학습 데이터와 점수
    __2.3.2 RecommederEvaluator 실행하기
    __2.3.3 결과 평가해보기
    2.4 정확률과 재현율 평가하기
    __2.4.1 RecommenderIRStatsEvaluator 실행하기
    __2.4.2 문제점
    2.5 그룹렌즈 데이터 셋 평가하기
    __2.5.1 추천기 입력용 데이터 추출하기
    __2.5.2 다른 추천기를 이용한 실험 수행
    2.6 요약

    CHAPTER 3 추천기에서 데이터 표현하기
    3.1 선호 데이터 표현하기
    __3.1.1 Preference 객체
    __3.1.2 PreferenceArray 구현
    __3.1.3 컬렉션 속도 높이기
    __3.1.4 FastByIDMap과 FastIDSet
    3.2 인메모리 DataModel
    __3.2.1 GenericDataModel
    __3.2.2 파일 기반 데이터
    __3.2.3 새로고침 가능한 컴포넌트
    __3.2.4 파일 업데이트하기
    __3.2.5 데이터베이스 기반 데이터
    __3.2.6 JDBC와 MySQL
    __3.2.7 JNDI를 통해 설정하기
    __3.2.8 프로그램으로 설정하기
    3.3 선호값 없이 처리하기
    __3.3.1 선호값을 무시할 시점
    __3.3.2 선호값 없이 인메모리로 표현하기
    __3.3.3 호환되는 구현 방식 선택하기
    3.4 요약

    CHAPTER 4 추천 만들기
    4.1 사용자 기반 추천 이해하기
    __4.1.1 추천이 잘못될 때
    __4.1.2 추천이 올바르게 될 때
    4.2 사용자 기반 추천기 살펴보기
    __4.2.1 알고리즘
    __4.2.2 GenericUserBasedRecommender를 사용한 알고리즘 구현
    __4.2.3 그룹렌즈 탐색하기
    __4.2.4 사용자 이웃 탐색하기
    __4.2.5 고정 크기 이웃
    __4.2.6 임계치 기반 이웃
    4.3 유사도 측정법 살펴보기
    __4.3.1 피어슨 상관관계 기반의 유사도
    __4.3.2 피어슨 상관관계의 문제점
    __4.3.3 가중치 적용하기
    __4.3.4 유클리드 거리 기반의 유사도 정의하기
    __4.3.5 코사인 측정 유사도 적용하기
    __4.3.6 스피어만 상관관계의 관련 순위로 유사도 정의하기
    __4.3.7 타니모토 계수로 유사도의 선호값 무시하기
    __4.3.8 로그 우도 테스트로 스마트한 유사도 계산하기
    __4.3.9 선호 추정하기
    4.4 아이템 기반 추천
    __4.4.1 알고리즘
    __4.4.2 아이템 기반 추천기 살펴보기
    4.5 슬로프-원 추천기
    __4.5.1 알고리즘
    __4.5.2 슬로프-원 실제 체험
    __4.5.3 용량 차이와 메모리 고려
    __4.5.4 선행 계산 분산하기
    4.6 새롭고 실험적인 추천기
    __4.6.1 특이값 분해 기반 추천기
    __4.6.2 선형보간법을 활용한 아이템 기반 추천
    __4.6.3 군집 기반 추천
    4.7 다른 추천기와 비교해보기
    __4.7.1 머하웃에서 콘텐츠 기반 기법 적용하기
    __4.7.2 콘텐츠 기반 추천 깊게 살펴보기
    4.8 모델 기반 추천기 비교해보기
    4.9 요약

    CHAPTER 5 추천기를 실제로 적용해보기
    5.1 데이트 사이트의 예제 데이터 분석하기
    5.2 효과적인 추천기 찾아보기
    __5.2.1 사용자 기반 추천기
    __5.2.2 아이템 기반 추천기
    __5.2.3 슬로프-원 추천기
    __5.2.4 정확률과 재현율 평가하기
    __5.2.5 성능 평가하기
    5.3 도메인 특화 정보 추가 분석하기
    __5.3.1 커스텀 아이템 유사도 측정 사용
    __5.3.2 콘텐츠 기반 추천
    __5.3.3 IDRescorer로 추천 개선하기
    __5.3.4 IDRescorer에 성별 정보 포함하기
    __5.3.5 커스텀 추천기의 패키징
    5.4 익명 사용자에게 추천하기
    __5.4.1 PlusAnonymousUserDataModel의 임시 사용자
    __5.4.2 익명 사용자 모으기
    5.5 웹 기반 추천기 만들기
    __5.5.1 WAR 파일 패키징하기
    __5.5.2 배포 테스트하기
    5.6 추천기의 업데이트와 모니터링
    5.7 요약

    CHAPTER 6 분산 추천 계산
    6.1 위키피디아 데이터 셋 분석하기
    __6.1.1 규모 문제와 씨름하기
    __6.1.2 분산 컴퓨팅의 장점과 단점 평가
    6.2 분산 아이템 기반 알고리즘 설계하기
    __6.2.1 동시 발생 행렬 생성하기
    __6.2.2 사용자 벡터 계산하기
    __6.2.3 추천 만들기
    __6.2.4 결과 해석하기
    __6.2.5 분산 처리 구현을 향해서
    6.3 맵리듀스 기반의 분산 알고리즘 구현하기
    __6.3.1 맵리듀스 살펴보기
    __6.3.2 맵리듀스로 전환하기: 사용자 벡터 생성하기
    __6.3.3 맵리듀스로 전환하기: 동시 발생 계산하기
    __6.3.4 맵리듀스로 전환하기: 행렬 곱셈의 재검토
    __6.3.5 맵리듀스로 전환하기: 부분곱으로 행렬 곱셈하기
    __6.3.6 맵리듀스로 전환하기: 추천하기
    6.4 하둡에서 맵리듀스 실행하기
    __6.4.1 하둡 설정하기
    __6.4.2 하둡으로 추천 실행하기
    __6.4.3 맵퍼와 리듀서 설정하기
    6.5 의사-분산 추천기
    __6.6 추천 활용하기
    __6.6.1 클라우드에서 실행하기
    __6.6.2 독특한 추천 사용을 상상하기
    6.7 요약

    PART 2 군집
    CHAPTER 7 군집 만나보기
    7.1 군집 소개
    7.2 아이템 유사성 측정
    7.3 Hello World: 단순 군집 예제 실행하기
    __7.3.1 입력 만들기
    __7.3.2 머하웃 군집 사용
    __7.3.3 결과 분석
    7.4 거리 측정법
    __7.4.1 유클리드 거리 측정법
    __7.4.2 제곱 유클리드 거리 측정법
    __7.4.3 맨하탄 거리 측정법
    __7.4.4 코사인 거리 측정법
    __7.4.5 타니모토 거리 측정법
    __7.4.6 가중치 거리 측정법
    7.5 다시 한번 Hello World 예제에서 다양한 거리 측정법 시험해보기
    7.6 요약

    CHAPTER 8 데이터 표현
    8.1 벡터의 시각화
    __8.1.1 데이터를 벡터로 변환하기
    __8.1.2 머하웃에서 사용하는 벡터 준비하기
    8.2 텍스트 문서를 벡터로 표현하기
    __8.2.1 TF-IDF로 가중치 향상하기
    __8.2.2 n-그램 연어로 단어의 의존 관계 파악하기
    8.3 문서에서 벡터 생성하기
    8.4 정규화로 벡터의 품질 향상하기
    8.5 요약

    CHAPTER 9 머하웃 군집 알고리즘
    9.1 K-평균 군집
    __9.1.1 K-평균에 대해 알아야 할 모든 것
    __9.1.2 K-평균 군집 실행하기
    __9.1.3 캐노피 군집으로 완벽한 k값 구하기
    __9.1.4 사례 연구: K-평균으로 뉴스 기사 군집하기
    9.2 K-평균을 넘어서: 군집 기법의 개요
    __9.2.1 다른 종류의 군집 문제
    __9.2.2 다른 군집 기법들
    9.3 퍼지 K-평균 군집
    __9.3.1 퍼지 K-평균 군집 실행하기
    __9.3.2 얼마나 퍼지해야 너무 퍼지한 것인가?
    __9.3.3 사례 연구: 퍼지 K-평균을 사용한 뉴스 기사의 군집
    9.4 모델 기반 군집
    __9.4.1 K-평균의 약점
    __9.4.2 디리클레 군집
    __9.4.3 모델 기반의 군집 예제 실행하기
    9.5 잠재 디리클레 할당을 사용한 토픽 모델링
    __9.5.1 잠재 디리클레 분석의 이해
    __9.5.2 TF-IDF vs. LDA
    __9.5.3 LDA의 파라미터 튜닝하기
    __9.5.4 사례 학습: 뉴스 기사에서 토픽 찾기
    __9.5.5 토픽 모델링 애플리케이션
    9.6 요약

    CHAPTER 10 군집 품질 평가와 향상 기법
    10.1 군집 결과 검사하기
    10.2 군집 결과 분석하기
    __10.2.1 거리 측정법과 특성 선택
    __10.2.2 군집 간 거리와 군집 내 거리
    __10.2.3 혼합된 군집과 중첩된 군집
    10.3 군집 품질 향상하기
    __10.3.1 문서 벡터의 생성 향상하기
    __10.3.2 커스텀 거리 측정법 만들기
    10.4 요약

    CHAPTER 11 군집 실전 배치
    11.1 하둡에서 군집을 실행하기 위한 빠른 시작
    __11.1.1 로컬 하둡 클러스터에서 군집 실행하기
    __11.1.2 하둡 설정 커스터마이징하기
    11.2 군집 성능 튜닝하기
    __11.2.1 CPU 의존성이 높은 작업에서 성능 함정 피하기
    __11.2.2 I/O 의존적인 작업에서 성능 함정 피하기
    11.3 배치와 온라인 방식의 군집
    __11.3.1 사례 연구: 온라인 뉴스 군집
    __11.3.2 사례 연구: 위키피디아 문서 군집하기
    11.4 요약

    CHAPTER 12 실환경에 군집 적용
    12.1 트위터에서 유사한 사용자 찾기
    __12.1.1 데이터 전처리와 특성 가중치
    __12.1.2 특성 선택의 공통 함정 피하기
    12.2 Last.fm에서 아티스트 태그 제시하기
    __12.2.1 동시 발생을 사용한 태그 추천
    __12.2.2 Last.fm 아티스트 사전 만들기
    __12.2.3 Last.fm 태그를 아티스트 속성 벡터로 변환하기
    __12.2.4 Last.fm 데이터를 사용해서 K-평균 실행하기
    12.3 스택 오버플로우 데이터 셋 분석하기
    __12.3.1 스택 오버플로우 데이터 셋 파싱하기
    __12.3.2 스택 오버플로우의 군집 문제 찾아보기
    12.4 요약

    PART 3 분류
    CHAPTER 13 분류 만나보기
    13.1 왜 머하웃 분류기를 사용해야 할까?
    13.2 분류시스템 기초
    __13.2.1 분류, 추천, 군집의 차이
    __13.2.2 분류 응용 사례
    13.3 분류기는 어떻게 동작하나?
    __13.3.1 모델
    __13.3.2 훈련 vs. 테스트 vs. 실전
    __13.3.3 예측 변수 vs. 목표 변수
    __13.3.4 레코드, 필드, 값
    __13.3.5 4가지 종류의 예측 변수값
    __13.3.6 감독 학습 vs. 비감독 학습
    13.4 전형적인 분류 프로젝트의 워크플로우
    __13.4.1 워크플로우 1 단계: 분류 모델 훈련
    __13.4.2 워크플로우 2 단계: 분류 모델 평가
    __13.4.3 워크플로우 3 단계: 모델 실전 적용
    13.5 단계적인 단순 분류 예제
    __13.5.1 데이터와 도전
    __13.5.2 색이 채워진 도형을 찾기 위한 모델의 훈련: 미리 생각하기
    __13.5.3 모델 훈련용 학습 알고리즘 선택하기
    __13.5.4 색채움 분류기의 성능 향상
    13.6 요약

    CHAPTER 14 분류기 훈련하기
    14.1 머하웃 분류기 구축을 위해 특성 추출하기
    14.2 미가공 데이터를 분류 가능 데이터로 전처리하기
    __14.2.1 미가공 데이터 변형하기
    __14.2.2 컴퓨터를 이용한 마케팅 예제
    14.3 분류 가능 데이터를 벡터로 변환하기
    __14.3.1 벡터로 데이터 표현하기
    __14.3.2 머하웃 API를 사용한 특성 해시
    14.4 20개 뉴스그룹 데이터 셋을 SGD로 분류하기
    __14.4.1 시작하기: 데이터 셋을 간단히 살펴보기
    __14.4.2 20개 뉴스그룹 데이터를 파싱하고 특성 토큰화하기
    __14.4.3 20개 뉴스그룹 데이터 처리용 훈련 코드
    14.5 분류기 훈련을 위한 알고리즘 선택하기
    __14.5.1 비병렬이지만 강력한 알고리즘: SGD와 SVM 사용하기
    __14.5.2 나이브 분류기의 능력: 나이브 베이즈와 보완 나이브 베이즈 사용하기
    __14.5.3 정교한 구조의 힘: 랜덤 포레스트 알고리즘 사용하기
    14.6 20개 뉴스그룹 데이터를 나이브 베이즈로 분류하기
    __14.6.1 시작하기: 나이브 베이즈로 데이터 추출하기
    __14.6.2 나이브 베이즈 분류기 훈련하기
    __14.6.3 나이브 베이즈 모델 테스트하기
    14.7 요약

    CHAPTER 15 분류기 평가와 튜닝
    15.1 머하웃에서 분류기 평가하기
    __15.1.1 빠른 피드백 얻기
    __15.1.2 '좋음'이 무엇을 의미하는지 결정하기
    __15.1.3 에러 비용의 차이 인식하기
    15.2 분류기 평가 API
    __15.2.1 AUC 계산
    __15.2.2 혼동 행렬과 엔트로피 측정
    __15.2.3 평균 로그 우도 계산하기
    __15.2.4 모델 분해하기
    __15.2.5 20개 뉴스그룹의 SGD 분류기 성능
    15.3 언제 분류기의 성능이 나빠지나?
    __15.3.1 목표 누설
    __15.3.2 잘못된 특성 추출
    15.4 더 나은 성능을 위한 튜닝
    __15.4.1 문제 튜닝
    __15.4.2 분류기 튜닝
    15.5 요약

    CHAPTER 16 분류기 실전 배치하기
    16.1 초대형 시스템 적용 프로세스
    __16.1.1 문제 확인
    __16.1.2 필요에 따라 특성 추출 최적화하기
    __16.1.3 필요에 따라 벡터 인코딩 최적화하기
    __16.1.4 확장성을 가진 분류 서비스 배치하기
    16.2 규모와 속도 요구 수준 결정하기
    __16.2.1 얼마나 커야 크다고 할 수 있나?
    __16.2.2 크기 vs. 속도 균형 맞추기
    16.3 대형 시스템용 훈련 파이프라인 구축하기
    __16.3.1 대규모 데이터 취득과 유지
    __16.3.2 반정규화와 다운샘플링
    __16.3.3 훈련 중 발생할 수 있는 위험
    __16.3.4 고속으로 데이터를 읽고 인코딩하기
    16.4 머하웃 분류기와 통합하기
    __16.4.1 미리 계획하기: 통합의 중요한 이슈
    __16.4.2 모델의 직렬화
    16.5 예제: 쓰리프트 기반의 분류 서버
    __16.5.1 분류 서버 실행하기
    __16.5.2 분류 서비스에 접속하기
    __16.6 요약

    CHAPTER 17 사례 학습: Shop It To Me
    17.1 왜 Shop It To Me는 머하웃을 선택했나?
    __17.1.1 Shop It To Me는 무슨 사이트인가?
    __17.1.2 왜 Shop It To Me에 분류시스템이 필요한가?
    __17.1.3 나머지 영역에서 머하웃의 균형 잡기
    17.2 이메일 마케팅 시스템의 일반적인 구조
    17.3 모델 훈련하기
    __17.3.1 분류 프로젝트의 목표 정하기
    __17.3.2 시간으로 구분하기
    __17.3.3 목표 누설 피하기
    __17.3.4 학습 알고리즘 수정
    __17.3.5 특성 벡터 인코딩
    17.4 분류 속도 향상하기
    __17.4.1 특성 벡터의 선형 결합
    __17.4.2 모델 점수의 선형 확장
    17.5 요약

    Appendix 부록
    APPENDIX A JVM 튜닝
    APPENDIX B 머하웃에서 사용하는 수학
    __B.1 벡터
    __B.2 행렬
    __B.3 머하웃의 수학과 하둡
    APPENDIX C 참고 문헌
    APPENDIX D 머하웃 버전 업데이트
    __D.1 0.6 릴리즈 노트
    __D.2 0.7 릴리즈 노트

    알라딘 중고
    품질 판정 가이드
    알라딘 중고 품질 판정 가이드
    품질등급 헌 상태 표지 책등 / 책배 내부 / 제본상태
    기본정보
    기본정보