Hadoop可视化分析利器之Hue(9)

  # Twitter:  Callback URL (aka Redirect URL) must be set to http://YOUR_HUE_IP_OR_DOMAIN_NAME/oauth/social_login/oauth_authenticated 

  # Google+ : CONSENT SCREEN must have email address 

  # Facebook: Sandbox Mode must be DISABLED 

  # Linkedin: "In OAuth User Agreement", r_emailaddress is REQUIRED 

 

  # The Consumer key of the application 

  ## consumer_key_twitter= 

  ## consumer_key_google= 

  ## consumer_key_facebook= 

  ## consumer_key_linkedin= 

 

  # The Consumer secret of the application 

  ## consumer_secret_twitter= 

  ## consumer_secret_google= 

  ## consumer_secret_facebook= 

  ## consumer_secret_linkedin= 

 

  # The Request token URL 

  ## request_token_url_twitter=https://api.twitter.com/oauth/request_token 

  ## request_token_url_google=https://accounts.google.com/o/oauth2/auth 

  ## request_token_url_linkedin=https://www.linkedin.com/uas/oauth2/authorization 

  ## request_token_url_facebook=https://graph.facebook.com/oauth/authorize 

 

  # The Access token URL 

  ## access_token_url_twitter=https://api.twitter.com/oauth/access_token 

  ## access_token_url_google=https://accounts.google.com/o/oauth2/token 

  ## access_token_url_facebook=https://graph.facebook.com/oauth/access_token 

  ## access_token_url_linkedin=https://api.linkedin.com/uas/oauth2/accessToken 

 

  # The Authenticate URL 

  ## authenticate_url_twitter=https://api.twitter.com/oauth/authorize 

  ## authenticate_url_google=https://www.googleapis.com/oauth2/v1/userinfo?access_token= 

  ## authenticate_url_facebook=https://graph.facebook.com/me?access_token= 

  ## authenticate_url_linkedin=https://api.linkedin.com/v1/people/~:(email-address)?format=json&oauth2_access_token= 

 

  # Username Map. Json Hash format. 

  # Replaces username parts in order to simplify usernames obtained 

  # Example: {"@sub1.domain.com":"_S1", "@sub2.domain.com":"_S2"} 

  # converts 'email@sub1.domain.com' to 'email_S1' 

  ## username_map={} 

 

  # Whitelisted domains (only applies to Google OAuth). CSV format. 

  ## whitelisted_domains_google= 

 

########################################################################### 

# Settings for the RDBMS application 

########################################################################### 

 

[librdbms] 

  # The RDBMS app can have any number of databases configured in the databases 

  # section. A database is known by its section name 

  # (IE sqlite, mysql, psql, and oracle in the list below). 

 

  [[databases]] 

    # sqlite configuration. 

    ## [[[sqlite]]] 

      # Name to show in the UI. 

      ## nice_name=SQLite 

 

      # For SQLite, name defines the path to the database. 

      ## name=/tmp/sqlite.db 

 

      # Database backend to use. 

      ## engine=sqlite 

 

      # Database options to send to the server when connecting. 

      # https://docs.djangoproject.com/en/1.4/ref/databases/ 

      ## options={} 

 

    # mysql, oracle, or postgresql configuration. 

    ## [[[mysql]]] 

      # Name to show in the UI. 

      ## nice_name="My SQL DB" 

 

      # For MySQL and PostgreSQL, name is the name of the database. 

      # For Oracle, Name is instance of the Oracle server. For express edition 

      # this is 'xe' by default. 

      ## name=mysqldb 

 

      # Database backend to use. This can be: 

      # 1. mysql 

      # 2. postgresql 

      # 3. oracle 

      ## engine=mysql 

 

      # IP or hostname of the database to connect to. 

      ## host=localhost 

 

      # Port the database server is listening to. Defaults are: 

      # 1. MySQL: 3306 

      # 2. PostgreSQL: 5432 

      # 3. Oracle Express Edition: 1521 

      ## port=3306 

 

      # Username to authenticate with when connecting to the database. 

      ## user=example 

 

      # Password matching the username to authenticate with when 

      # connecting to the database. 

      ## password=example 

 

      # Database options to send to the server when connecting. 

      # https://docs.djangoproject.com/en/1.4/ref/databases/ 

      ## options={} 

 

########################################################################### 

# Settings to configure your Hadoop cluster. 

########################################################################### 

 

[hadoop] 

 

  # Configuration for HDFS NameNode 

  # ------------------------------------------------------------------------ 

  [[hdfs_clusters]] 

    # HA support by using HttpFs 

 

    [[[default]]] 

      # Enter the filesystem uri 

      fs_defaultfs=hdfs://h1:8020 

 

      # NameNode logical name. 

      logical_name=h1 

 

      # Use WebHdfs/HttpFs as the communication mechanism. 

      # Domain should be the NameNode or HttpFs host. 

      # Default port is 14000 for HttpFs. 

      webhdfs_url=http://h1:50070/webhdfs/v1 

 

      # Change this if your HDFS cluster is Kerberos-secured 

      security_enabled=false 

 

      # Default umask for file and directory creation, specified in an octal value. 

      umask=022 

      hadoop_conf_dir=/home/search/hadoop/etc/hadoop 

 

  # Configuration for YARN (MR2) 

  # ------------------------------------------------------------------------ 

  [[yarn_clusters]] 

 

    [[[default]]] 

      # Enter the host on which you are running the ResourceManager 

      resourcemanager_host=h1 

 

      # The port where the ResourceManager IPC listens on 

      resourcemanager_port=8032 

 

      # Whether to submit jobs to this cluster 

      submit_to=True 

 

      # Resource Manager logical name (required for HA) 

      ## logical_name= 

 

      # Change this if your YARN cluster is Kerberos-secured 

      ## security_enabled=false 

 

      # URL of the ResourceManager API 

      resourcemanager_api_url=http://h1:8088 

 

      # URL of the ProxyServer API 

      proxy_api_url=http://h1:8088 

 

      # URL of the HistoryServer API 

      history_server_api_url=http://h1:19888 

 

    # HA support by specifying multiple clusters 

    # e.g. 

 

    # [[[ha]]] 

      # Resource Manager logical name (required for HA) 

      ## logical_name=my-rm-name 

 

  # Configuration for MapReduce (MR1) 

  # ------------------------------------------------------------------------ 

  [[mapred_clusters]] 

 

    [[[default]]] 

      # Enter the host on which you are running the Hadoop JobTracker 

     jobtracker_host=h1 

 

      # The port where the JobTracker IPC listens on 

     #jobtracker_port=8021 

 

      # JobTracker logical name for HA 

      ## logical_name= 

 

      # Thrift plug-in port for the JobTracker 

      ## thrift_port=9290 

 

      # Whether to submit jobs to this cluster 

      submit_to=False 

 

      # Change this if your MapReduce cluster is Kerberos-secured 

      ## security_enabled=false 

 

    # HA support by specifying multiple clusters 

    # e.g. 

 

    # [[[ha]]] 

      # Enter the logical name of the JobTrackers 

      # logical_name=my-jt-name 

 

 

########################################################################### 

# Settings to configure the Filebrowser app 

########################################################################### 

 

[filebrowser] 

  # Location on local filesystem where the uploaded archives are temporary stored. 

  ## archive_upload_tempdir=/tmp 

 

########################################################################### 

# Settings to configure liboozie 

########################################################################### 

 

[liboozie] 

  # The URL where the Oozie service runs on. This is required in order for 

  # users to submit jobs. Empty value disables the config check. 

  ## oozie_url=http://localhost:11000/oozie 

  oozie_url=http://h1:11000/oozie 

 

  # Requires FQDN in oozie_url if enabled 

  ## security_enabled=false 

 

  # Location on HDFS where the workflows/coordinator are deployed when submitted. 

  remote_deployement_dir=/user/hue/oozie/deployments 

 

 

########################################################################### 

# Settings to configure the Oozie app 

########################################################################### 

 

[oozie] 

  # Location on local FS where the examples are stored. 

  local_data_dir=apps/oozie/examples/ 

 

  # Location on local FS where the data for the examples is stored. 

  ## sample_data_dir=...thirdparty/sample_data 

 

  # Location on HDFS where the oozie examples and workflows are stored. 

  remote_data_dir=apps/oozie/workspaces 

 

  # Maximum of Oozie workflows or coodinators to retrieve in one API call. 

  oozie_jobs_count=100 

 

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/9cc6197faa692804b56a415e608cf8d9.html