11
votes

Installation numpy sur Amazon EC2

J'ai du mal à installer numpy sur un serveur Amazon EC2. J'ai essayé d'utiliser easy_install, PIP, PIP à l'intérieur d'une envèrement virtuelle, PIP à l'intérieur d'un autre env ou enviable à l'aide de Python 2.7 ...

Chaque fois que j'essaie, il échoue avec l'erreur: GCC: Erreur de compilateur interne: tué (programme CC1) , puis plus loin dans la ligne, je reçois une bande d'erreurs Python, avec easy_install i Obtenir: ImporterRor: Aucun module nommé Numpy.Distutils , et avec Pip I GET: UnicodeDecodeError: "ASCII 'CODEC ne peut pas décoder octet 0xe2 en position 72: ordinal non dans la plage (128) .

L'instance EC2 exécute le noyau 3.4.43-43.43.AMZN1.x86_64. Quelqu'un a-t-il résolu ce problème? Numpy a toujours été difficile pour moi d'installer, mais je peux habituellement le comprendre ... À ce stade, je me soucie de savoir si c'est dans son propre virtualenv, je veux juste l'obtenir installé.


1 commentaires

La plupart des distributions Linux sont engendrées. J'utiliserais leur colis.


4 Réponses :


8
votes

J'ai fini par installer Numpy via Yum, Sudo Yum Installez numpy . Je suppose que c'est le meilleur que je puisse faire pour le moment. Lorsque vous travaillez avec Virtualenv et j'ai besoin de numpie, je vais le dire d'utiliser des packages de site.

Merci pour la suggestion @robert.


0 commentaires

22
votes

Exigences pour l'installation de NUMPY

  • C compilateur C (GCC) LI>
  • Compilateur FORTRAN (GFORTRAN) LI>
  • Fichiers en-tête Python (2.4.x - 3.2.x) LI>
  • blas ou phack fortement recommandé li> ul>

    J'ai écrit un script à Installez Virtualenv et Scikit-apprendre avec toutes les dépendances. Vous pouvez suivre une installation numpue, qui est assez simple. J'ai copié le code pertinent ci-dessous. P>

    atlas_threads_info:
        libraries = ['lapack', 'ptf77blas', 'ptcblas', 'atlas']
        library_dirs = ['/usr/lib64/atlas-sse3']
        define_macros = [('ATLAS_INFO', '"\\"3.8.4\\""')]
        language = f77
        include_dirs = ['/usr/include']
    blas_opt_info:
        libraries = ['ptf77blas', 'ptcblas', 'atlas']
        library_dirs = ['/usr/lib64/atlas-sse3']
        define_macros = [('ATLAS_INFO', '"\\"3.8.4\\""')]
        language = c
        include_dirs = ['/usr/include']
    atlas_blas_threads_info:
        libraries = ['ptf77blas', 'ptcblas', 'atlas']
        library_dirs = ['/usr/lib64/atlas-sse3']
        define_macros = [('ATLAS_INFO', '"\\"3.8.4\\""')]
        language = c
        include_dirs = ['/usr/include']
    lapack_opt_info:
        libraries = ['lapack', 'ptf77blas', 'ptcblas', 'atlas']
        library_dirs = ['/usr/lib64/atlas-sse3']
        define_macros = [('ATLAS_INFO', '"\\"3.8.4\\""')]
        language = f77
        include_dirs = ['/usr/include']
    lapack_mkl_info:
      NOT AVAILABLE
    blas_mkl_info:
      NOT AVAILABLE
    mkl_info:
      NOT AVAILABLE
    


0 commentaires

0
votes

Vous pouvez essayer d'utiliser la distribution Anaconda Python à partir de https://www.continuum.io , qui utilise le Version de Conda Python et gestionnaire de paquets. J'ai trouvé que cette distribution sera bien configurée et pratique pour le travail informatique scientifique.

J'ai pu télécharger et installer dans une instance EC2 à l'aide de WGET et du lien de téléchargement Linux à partir de la page Web Téléchargements. Par exemple, pour Python 2:

$ wget https: // 3230D63B5FC54E62148E- C95AC804525AAC4B6DBA79B00B39D1D3.SSL.cf1.RackCDN.com/anaconda2-2.5.0-Linux-x86_64.sh

...

$ chmod a + x anaconda2-2.5.0-linux-x86_64.sh

$ ./anaconda2-2.5.0-linux-x86_64.sh

...

$ source .CASHRC

$ condada créer --Name myENVName BIOPYTHON

$ source activer myENVName

$ NUMPLY IMPORT DE PYTHON -C '; Imprimer (Numpy.Version.Version) '

1.10.4


1 commentaires

Mieux encore commencer par une image existante: docs.continuum.io/anaconda/amazon-aws



1
votes

juste pour les archives. Si vous exécutez un Ubuntu EC2 et que vous avez déjà installé PIP, vous pouvez faire quelque chose comme:

pour python2: xxx

pour python 3: xxx

La clé est le mot utilisateur .


0 commentaires