sw스택은 spark로 선택하고 hadoop을 추가로 설치해서 사용하려하는데
-
- hdfs 에서 ssh 설정중에 authorized_keys 파일의 권한을 변경하는 법
- 내부에서 docker로 all-spark-notebook을 사용하려하는데 이 때는 docker daemon이 실행이 안돼서 사용을 못하고있습니다... 디버깅 방법이 궁금합니다.
-
@유정민 님이 sw스택은 spark로 선택하고 hadoop을 추가로 설치해서 사용하려하는데 에서 보낸 메세지:
보안상 1, 2가 2는 docker in docker라서 안될거 같고요. 1은 goormIDE에서도 ssh을 사용해서 터미널을 붙는거 같은데 그걸 바꾸면 goormIDE가 동작을 안할지도 몰라요 ㅎㄷㄷ