Please assign a menu to the primary menu location under menu

How to install Redmine On CentOS 6.4

Redmine? Redmine은 오픈소스 프로그램으로 웹 기반의 프로젝트 관리와 버그 추적 기능을 제공하는 도구입니다. 프로젝트 관리에 도움이 되도록 달력과 간트 차트, 일정관리 기능, 통합된 프로젝트 관리 기능, 이슈추적, 여러가지 형상 관리 기능을 제공합니다. Ruby on Rails에 기반하여 작성 되었으며 Multi Platform을 지원하고 여러가지 종류의 데이터베이스를 지원 합니다. 본 글은 CentOS 6.4(x86_64)에서 테스트 되었으며 MySQL대신 MariaDB와 Nginx를 사용하여 Redmine을 설치하는 방법에 대해 기록하였습니다. 설치순서 : 필요 패키지 -> Nginx -> MariaDB -> Redmine 1. CentOS 설정 Selinux 비활성화 # sed -i ‘s/SELINUX=enforcing/SELINUX=disabled/g’ /etc/sysconfig/selinux iptables HTTP 80번 포트 허용 # nano /etc/sysconfig/iptables # Firewall configuration written by system-config-firewall # Manual customization of this

Can’t install RMagick 2.13.2. Can’t find Magick-config

bundle install시 Magick-config를 찾을수 없다고 나올 경우 # gem install rmagick Building native extensions.  This could take a while… ERROR:  Error installing rmagick: ERROR: Failed to build gem native extension. /usr/bin/ruby extconf.rb checking for Ruby version >= 1.8.5… yes checking for gcc… yes checking for Magick-config… no Can’t install RMagick 2.13.2. Can’t find Magick-config in /home/hadoop/hive/bin:/usr/local/apache-maven-3.1.1/bin:/usr/lib64/qt-3.3/bin:/usr/local/sbin:/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin:/usr/local/jdk/bin:/bin:/home/hadoop/2.2.0/bin:/home/hadoop/2.2.0/sbin:/root/bin *** extconf.rb failed *** Could not create Makefile due to some reason, probably lack of necessary libraries and/or headers.  Check the mkmf.log file for more details.  You may need configuration options. Provided configuration options: –with-opt-dir –without-opt-dir –with-opt-include –without-opt-include=${opt-dir}/include –with-opt-lib –without-opt-lib=${opt-dir}/lib –with-make-prog –without-make-prog –srcdir=. –curdir –ruby=/usr/bin/ruby

Hadoop – HDFS NFS Gateway

Hadoop의 HDFS(Hadoop Distributed File System)를 NFS(Network File System) 서버로 활용 할수 있습니다.   Hadoop에서 NFSv3 버전과 Portmap 서비스를 지원 하므로 리눅스 서버의 실행 중인 nfs, rpcbind 서비스를 중지 합니다. # service nfs stop # service rpcbind stop   Hadoop의 Portmap, NFSv3를 UNIX signal handlers로 서비스를 실행 시킵니다. # hdfs –help | egrep ‘portmap|nfs3’   portmap            run a portmap service nfs3                 run an NFS version 3 gateway # hdfs portmap & # hdfs nfs3 & Portmap, NFS 서비스 확인 # rpcinfo -p localhost (PortmapMapping-100005:1:6:4242) (PortmapMapping-100000:2:17:111) (PortmapMapping-100005:3:6:4242) (PortmapMapping-100005:2:17:4242) (PortmapMapping-100003:3:6:2049) (PortmapMapping-100000:2:6:111)

How to install Hadoop 2.2.0 (Pseudo-Distributed Mode)

Hadoop 2.2.0 버전의 기준으로 작성 되었습니다. 1. hadoop 사용자 추가 # useradd hadoop # passwd hadoop   2. SSH 설정 로컬 SSH 접속시 비밀번호 요구 하지 않도록 설정 # su – hadoop $ ssh-keygen -t dsa -P ” -f ~/.ssh/id_dsa $ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys $ chmod 644 ~/.ssh/authorized_keys   – 접속 테스트 $ ssh localhost Last login: Thu Oct 17 11:49:09 2013 from localhost.localdomain Hello?   3. JDK 설치 http://www.oracle.com/technetwork/java/javase/downloads/index.html $ curl -LO “http://download.oracle.com/otn-pub/java/jdk/7u55-b13/jdk-7u55-linux-x64.tar.gz” -H ‘Cookie: oraclelicense=accept-securebackup-cookie’ $ tar xzvf jdk-7u55-linux-x64.tar.gz $ mv jdk1.7.0_55 jdk   – 환경 변수 등록 $ nano ~/.bash_profile # JAVA export JAVA_HOME=$HOME/jdk export PATH=$PATH:$JAVA_HOME/bin

How to install Hive

Hive? Hadoop의 리포팅 및 분석을 위한 Database라고 보면 됩니다. Hive는 Hadoop 상에 있으며 데이터는 HDFS에 저장됩니다. 그리고, 사용자가 작성한 Hive QL(SQL Query)을 Compile 하여 Hadoop Cluster에 MR(Map Reduce) 작업을 실행 하도록 합니다. 더 자세한건.. 검색 하길 권장. – Hive Architecture   당연한거지만.. Hive를 설치 하기 전에 hadoop이 설치 되어 있어야 합니다. 1. Hive 설치 아래 주소에서 Hive를 다운로드 합니다. http://www.apache.org/dyn/closer.cgi/hive/ # cd /usr/local # wget http://mirror.apache-kr.org/hive/stable/hive-0.11.0.tar.gz # tar xzvf hive-0.11.0.tar.gz # mv hive-0.11.0 hive 2. Hive 환경 변수 등록 # echo ‘export HIVE_HOME=/usr/local/hive’ >> ~/.bash_profile # echo ‘export PATH=$HIVE_HOME/bin:$PATH’ >> ~/.bash_profile 설정 적용 # source ~/.bash_profile 3. Hive 실행 Hadoop을 실행 합니다. # start-all.sh Hive에서 사용할 HDFS의 디렉토리를 생성

1 6 7 8 45