在 Oracle® Solaris 中安装和配置 OpenStack (Kilo)

退出打印视图

更新时间: 2016 年 6 月
 
 

升级后任务

升级到当前 Oracle Solaris 发行版后,执行这些剩余的步骤以完成到 OpenStack Kilo 的升级。

  1. 将 Horizon 定制迁移到 Kilo 版本。
    1. 将定制设置从 /etc/openstack_dashboard/local_settings.py.old 传输到 /etc/openstack_dashboard/local_settings.py
    2. 如果以下内容之一适用于您的配置,请注释掉 /etc/openstack_dashboard/local_settings.py 文件中的其他行:
      • 具有单节点 OpenStack 配置以达到评估目的。

      • Horizon 配置未使用 SSL。

      请参见以下示例:

      # SECURE_PROXY_SSL_HEADER = ('HTTP_X_FORWARDED_PROTOCOL', 'https')
      # CSRF_COOKIE_SECURE = True
      # SESSION_COOKIE_SECURE = True
    3. 将 Horizon Apache 配置段样例复制到 Apache conf.d 目录。

      必须仅复制与您所使用的协议相对应的段样例。发出以下命令之一:

      • 如果正在使用 HTTP:

        # cp /etc/apache2/2.4/samples-conf.d/openstack-dashboard-http.conf /etc/apache2/2.4/conf.d
      • 如果正在使用 TLS:

        # cp /etc/apache2/2.4/samples-conf.d/openstack-dashboard-tls.conf /etc/apache2/2.4/conf.d
  2. 如果具有多节点配置,则使用以粗体显示的行更新 /etc/rabbitmq/rabbitmq.config
    % FHC read buffer has been disabled by default in later versions of
    %RabbitMQ.
    [
       {rabbit, [
         {fhc_read_buffering, false},
         {loopback_users, []}
       ]}
    ].
    
  3. 更新 Cinder v2 服务。

    在 Keystone 正运行的节点上执行这些步骤。对于发出的每个命令,都包括输出样例。

    1. 创建 v2 Cinder 服务。
      controller# openstack --os-url http://$CONTROLLER_ADMIN_NODE:35357/v2.0 \
         --os-token ADMIN \
          service create --name cinderv2 \
         --description "Cinder Volume Service v2" volumev2
      +-------------+----------------------------------+
      | Field       | Value                            |
      +-------------+----------------------------------+
      | description | Cinder Volume Service v2         |
      | enabled     | True                             |
      | id          | 2ee6fefbdcdc4f06bcb0e36e0e4dd9c3 |
      | name        | cinderv2                         |
      | type        | volumev2                         |
      +-------------+----------------------------------+
      
    2. 创建端点。
      controller# openstack --os-url http://$CONTROLLER_ADMIN_NODE:35357/v2.0 \
         --os-token ADMIN
         endpoint create \
         --region RegionOne \
         --publicurl "http://$CONTROLLER_ADMIN_NODE:8776/v2/\$(tenant_id)s" \
         --adminurl "http://$CONTROLLER_ADMIN_NODE:8776/v2/\$(tenant_id)s" \
         --internalurl "http://$CONTROLLER_ADMIN_NODE:8776/v2/\$(tenant_id)s" cinderv2
      
      +--------------+------------------------------------------+
      | Field        | Value                                    |
      +--------------+------------------------------------------+
      | adminurl     | http://controller-node:8776/v2/$(tenant_id)s |
      | id           | 1b8cd962b12342429cdedb0c7e5d0440       |
      | internalurl  | http://controller-node:8776/v2/$(tenant_id)s |
      | publicurl    | http://controller-node:8776/v2/$(tenant_id)s |
      | region       | RegionOne                                |
      | service_id   | 2ee6fefbdcdc4f06bcb0e36e0e4dd9c3         |
      | service_name | cinderv2                                 |
      | service_type | volumev2                                 |
      +--------------+------------------------------------------+
      
    3. 验证 cinderv2 是否存在于端点列表中:
      controller# openstack --os-url http://$CONTROLLER_ADMIN_NODE:35357/v2.0 --os-token ADMIN endpoint list
      +----------------------------------+-----------+--------------+----------------+
      | ID                               | Region    | Service Name | Service Type   |
      +----------------------------------+-----------+--------------+----------------+
      | 6891354066f84268968c8498f5f6d51b | RegionOne | neutron      | network        |
      | 03121908d41e4efa98748fde8ca6d057 | RegionOne | heat         | orchestration  |
      | b69e4f0373ff4a8f9560dc2644d891ba | RegionOne | glance       | image          |
      | 1e6c7f52dcd34a27b7ccac98918f19f1 | RegionOne | ec2          | ec2            |
      | e3236915a3dd4098b9e8e0853b5a5af2 | RegionOne | keystone     | identity       |
      | fe8870c3e6ac4b529aa7ce7563fc24a4 | RegionOne | heat-cfn     | cloudformation |
      | aa931a795f2c4c0ca637e0e4c351cf07 | RegionOne | swift        | object-store   |
      | 1b8cd962b12342429cdedb0c7e5d0440 | RegionOne | cinderv2     | volumev2       |
      | 618a8edba487417c91d0de7f3bcc786d | RegionOne | cinder       | volume         |
      | 4c79d020189a44d383bdc15033a942c4 | RegionOne | nova         | compute        |
      +----------------------------------+-----------+--------------+----------------+
      
  4. 重新启动 Apache 服务。
    # svcadm restart apache24
  5. 如果 IP 过滤器服务未运行,请启动它。
    controller# svcadm enable -rs ipfilter
  6. 如果正在将 ZFSSA 用于存储,请调整 /etc/cinder.cinder.conf 以使用新的驱动程序属性。

    zfssa_initiator_config 属性列出了多个启动器或多组启动器,并替换 zfssa_initiator_group(它在 OpenStack Kilo 版本中已过时)。

    1. 通过使用以下格式,列出新属性的多个启动器:
      zfssa_initiator_config = {
          'init-grp1': [
                       {'iqn':'iqn1' , 'user':'user' , 'password':'password'}, 
                       {'iqn':'iqn2' , 'user':'user' , 'password':'password'}
                       ],
          'init-grp2': [
                       {'iqn':'iqn3' , 'user':'user' , 'password':'password'}
                       ] }

      例如,如果在 ZFS 存储设备上创建了两组启动器(A 组和 B 组),请对它们进行如下定义:

      zfssa_initiator_config = {
              'GroupA':[
                  {'iqn':'iqn.1986-03.com.sun:01:0a43b9fdcfd5.570d7fd1', 'user':'test1', 'password':'password1234'},
                  {'iqn':'iqn.1986-03.com.sun:01:0a43b9fdcfd5.570d7fd2', 'user':'', 'password':''}
              ],
              'GroupB':[
                  {'iqn':'iqn.1986-03.com.sun:01:0a43b9fdcfd5.570d7fd3', 'user':'', 'password':''}
              ] }
      
    2. 注释掉文件中的以下已过时参数:
      • zfssa_initiator_group

      • zfssa_initiator

    3. 重新启动 Cinder 服务。
      controller# svcadm restart cinder-volume:default