본문 바로가기
  • SDXL 1.0 + 한복 LoRA
  • SDXL 1.0 + 한복 LoRA

맵리듀스16

[옛 글] [BigData] MapReduce 개요 최초 작성일 : 2013/05/30 15:24 맵 리듀스 개요 맵 : - 원시 데이터를 key-value 쌍의 중간 파일로 만든다.- 입력데이터가 있는 노드에서 맵 함수가 수행되는 것이 가장 좋다 (지역성 최적화)- 맵 함수에 전달되는 입력 데이터는 라인 offset을 키로, 해당 라인 내용을 value로 하는 형태로 구성된다.- 맵 함수는 이 입력값들로부터 필요로 하는 key와 value를 추출한다.- 이 과정에서 잘못된 레코드를 제거하는 기능도 수행한다.- 맵 task의 실행 결과는 HDFS가 아닌 로컬 디스크에 저장된다. (HDFS와 로컬 디스크의 개념을 명확히 구분하자) 이유는 맵의 결과물은 단지 리듀스 함수로 전달하기 위한 중간 결과물일 뿐이며 모든 잡이 완료되면 버려도 되는 데이터이기 때문이다.. 2013. 7. 19.
[옛 글] [BigData] 결론 최초 작성일 : 2013/05/15 13:05 드디어 마지막 결론입니다~~~! 그동안 발번역을 열심히 보아주신(분이 계시다면) 경의를 표합니다...^^;;;이제 다음 주부터는 실무 연습으로 들어가야겠네요.자세한 계획은 다음 글에...^^;;; 감사합니다.============================================= 결론 MapReduce 프로그래밍 모델은 구글에서 여러가지 서로 다른 목적을 위해 성공적으로 사용되고 있다.우리는 몇가지 이유로부터 이러한 성공의 결과를 찾고 있다. 첫 번째로 MapReduce의 프로그래밍 모델은 병렬화, 고장 방지, 지역 최적화, 로드 밸런싱 등의 세부적인부분을 모두 라이브러리 내부에 감추고 있기 때문에 사용하기 쉽고 심지어 병렬이나 분산 시스템에 대한 .. 2013. 7. 19.
[옛 글] [BigData] MapReduce - 관련 작업 2 최초 작성일 : 2013/05/09 12:26 이제 마지막 여덟 번 째 섹션인 '결론'만 남았네요.결론까지 다 번역하고 나면 드디어 기다리고 기다리는 실제 구축 연습니다.빈약하지만 열심히 장비도 준비를 해놓았네요...^^;;; 오늘도 발번역 나갑니다. ============================================================= Related Work 2 MapReduce 라이브러리의 일부인 정렬 장치는 *NOW-Sort 수행과 유사하다. 소스 머신들(map 작업자들)은정렬을 위해 데이터를 분할하고 분할된 데이터를 R개의 reduce 작업자 중 하나에게 전달한다. 각각의 reduce작업자들은 로컬상에서 그 데이터들을 정렬한다(가능하다면 메모리상에서 수행한다). 물론 NOW.. 2013. 7. 19.
[옛 글] [BigData] MapReduce - 관련 작업 1 최초 작성일 : 2013/05/03 13:04 ============================================= 문서의 막바지에 다다르니 전문 용어 및 원서와 논문들의 인용구가 많아독해에 어려움이 많네요...ㅠ.ㅠ 이미 앞서 올린 글을 통해 발번역인 거 다 아셨으니 그냥 그러려니 하고 보세요...ㅠ.ㅠ============================================= Related Work 많은 시스템들이 제한된 프로그래밍 모델들을 제공하고 자동으로 연산의 병렬화를 하는데 그 제약을 사용한다.예를 들면 associative 함수는 parallel prefix computations[6, 9, 13]을 이용하여 N개의 프로세서 상에서log N의 시간 동안 N개의 요소를 가진 .. 2013. 7. 19.
[옛 글] [BigData] MapReduce - 대규모 indexing 최초 작성일 : 2013/04/23 12:47 지금까지의 MapReduce 사용에 있어 가장 주목할만한 점 한가지는 구글의 웹 검색 서비스에 사용되는데이터 구조를 생성하는 production indexing 시스템을 완전히 다시 작성했다는 것이다.indexing 시스템은 우리의 crawling 시스템이 검색해오는 대량의 문서 셋을 입력값으로 받아GFS 파일 셋으로 저장한다. 이러한 문서 셋의 원본 내용들은 20 테라바이트 이상의 데이터들이다.indexing 수행은 5개에서 10개 정도의 MapReduce 업무가 순차적으로 진행되면서 이루어진다.(이전 버전의 indexing 시스템에서 ad-hoc distributed passes를 사용하는 대신에)MapReduce를이용하는 것은 몇가지 이익을 준다. • .. 2013. 7. 19.
[옛 글] [BigData] MapReduce - 경험 최초 작성일 : 2013/04/19 12:57 Experience MapReduce 라이브러리의 최초 버전은 2003년 2웖에 만들어졌다.그리고 locality 최적화, 작업자 머신들 간에 task 수행에 있어서의 동적인 로드 밸런싱 등 괄목할만한 개선이 2003년 8월에 이루어졌다. 그 때부터 우리는 우리가 작업하는 곳에서 발생하는 다양한 문제점을 해결하는데 MapReduce 라이브러리가얼마나 광범위하게 적용 가능한지를 알고 환호했다. MapReduce는 Google 내의 광범위한 도메인에 사용되어 다음과 같은 역할을 하였다. * 대규모 머신에서 배우는 문제들* 구글 뉴스와 Froogle의 생산물에 대한 클러스링 문제들* 인기있는 쿼리들(Google Zeitgeist같은)의 보고서에서 만들어지는 데이터.. 2013. 7. 19.
[옛 글] [BigData] MapReduce - 성능 3 최초 작성일 : 2013/04/17 13:17 Effect of Backup Task Figure 3 (b)에서 우리는 backup task들이 비활성화된 정렬 프로그램의 실행을 볼 수있다.프로그램 실행의 흐름은 과도한 쓰기 작업이 있는 경우에 완료 시점까지 long tail 현상이나타난다는 것을 제외하면 Figure 3 (a)와 유사하다. 960초 이후 5개의 reduce task들을 제외한 모든 수행이 완료되었다. 그러나 이 마지막의straggler들은 이후 300초가 지날 때까지 끝나지 않았다. 모든 연산은 1283초가 걸렸으며소요시간이 44% 증가하였다. Machine Failure Figure 3 (c)에서는 연산 중에 1746개의 작업자를 제외한 200개의 작업자를 의도적으로몇분간 중지시킨 상.. 2013. 7. 19.
[옛 글] [BigData] MapReduce - 성능 2 최초 작성일 : 2013/04/11 12:22 Sort sort 프로그램은 10의 10승개의 100바이트 크기 레코드들을 정렬한다.(약 1테라바이트의 데이터이다.)이 프로그램은 *TeraSort benchmark 이후에 모델링 되었다. 소팅 프로그램은 50 줄도 안되는 사용자 코드로 구성되어있다.3줄의 Map 함수는 text문서의 라인으로부터 10바이트의 정렬 키를 추출하고이 키와 원래 문서의 라인을 key/value 쌍으로 뽑아낸다. 우리는 라이브러리에 내장되어있는 Identity(항등)함수를 Reduce 연산자로 사용할 것이다.이 함수는 중간형태의 key/value 쌍을 아무 변화 없이 출력 key/value 쌍으로 보낸다.정렬된 최종 출력은 2방향으로 복제된 GFS 파일로 저장된다.(프로그램의 출력.. 2013. 7. 19.
[옛 글] [BigData] MapReduce - 성능 1 최초 작성일 : 2013/03/26 12:54 2013. 7. 19.
반응형