Novità sui contenitori cloud: Ubuntu OpenStack, Tata Communications, JFrog, Open BMC e Kaggle

Container-as-a-Service (CaaS), archiviazione SSD, & Aprire i controller di gestione della scheda madre

La settimana scorsa Ubuntu OpenStack ha rilasciato le statistiche che posizionavano la distribuzione del software Linux come la numero 1 nella quota di mercato per la gestione del data center cloud costruita utilizzando OpenStack per l’amministrazione della rete. Ubuntu ha rivendicato il 55% dell’investimento aziendale totale in questo settore nel 2017 rispetto alle distribuzioni concorrenti della piattaforma Linux aziendale da Red Hat OpenShift e SUSE Cloud 7 con MicroOS. In India, la società di outsourcing dello sviluppo software Tata Communications ha annunciato un nuovo supporto per una piattaforma cloud container-as-a-service (CaaS) sviluppata dai loro team di programmazione come soluzione per:


  • Le aziende come telecomunicazioni, banche / finanza, produzione o commercio elettronico devono adottare rapidamente la modernizzazione del database;
  • La produzione di app Web / mobili con codice personalizzato con supporto di hosting cloud ad alte prestazioni ai massimi livelli di traffico utente;
  • Gestione dell’hardware di rete cloud pubblico / privato / ibrido per la pubblicazione Web, l’applicazione mobile, & Requisiti del prodotto SaaS.

Tata Communications continua una tendenza lanciata da Infosys e Wipro nello sviluppo di soluzioni software proprietarie per il cloud privato che possono essere utilizzate dai team di outsourcing per supportare molte aziende aziendali contemporaneamente. Le società di integrazione possono installare Red Hat OpenShift, Ubuntu OpenStack, SUSE Cloud 7, CoreOS o RancherOS con la virtualizzazione Docker per gestire soluzioni complesse per i clienti aziendali utilizzando strumenti software open source. Altri annunci importanti questa settimana includevano il nuovo VMware, IBM, & Collaborazione AWS in soluzioni di piattaforma cloud; Microsoft stabilisce nuovi standard SSD / BMC per i produttori di hardware & data center (Progetto Denali / Progetto Cerberus); e ha continuato a cadere da addetti ai lavori sull’acquisizione da parte di Google della società di scienza dei dati Kaggle, incluso il loro personale di programmazione esperto, archivi di dati di ricerca, & milioni di clienti della piattaforma AI / ML / DL. L’adozione di Apache Hadoop sta ancora crescendo rapidamente come soluzione per "big data" requisiti, tra cui IoT, e-commerce, auto a guida autonoma, analisi della rete cloud, & tecnologia di ricerca.

Container-as-a-Service (CaaS), archiviazione SSD e controller di gestione Open Baseboard

Ubuntu OpenStack: 55% della quota di mercato rispetto a Red Hat OpenShift & Distribuzioni di SUSE Cloud 7

OpenStack è stato sviluppato da Rackspace & La NASA intorno al 2010 come sistema operativo avanzato per data center per requisiti di cloud computing su larga scala. La piattaforma è modulare ed estensibile, in modo che le aziende o altre organizzazioni possano personalizzarla in base ai loro specifici requisiti di data center o cloud hosting, ovvero utilizzare per i server Web per rendere pubbliche le informazioni o ospitare server di database per operazioni interne, ecc. Software di terze parti le società di sviluppo possono creare strumenti che estendono OpenStack in nuovi modi: monitoraggio della rete, bilanciamento del carico, archiviazione remota, API, amministrazione del server Web, analisi dei dati, firewall, crittografia, & sicurezza. Ubuntu è ora "la distribuzione Linux più utilizzata per OpenStack." A&T, Bloomberg, Paypal, eBay, Sky, & Walmart attualmente gestisce i propri data center e l’hosting cloud per applicazioni web / mobili con Canonical utilizzando Ubuntu / OpenStack ai massimi livelli di traffico web. La combinazione dei prossimi 5 concorrenti nel settore: Red Hat, SUSE, HP, Oracle, & IBM non eguaglia nemmeno la base utenti totale installata di Ubuntu rispetto alla maggior parte dell’hardware del server cloud che esegue OpenStack nella produzione di data center oggi per i servizi di web hosting a livello aziendale, principalmente sull’architettura del cloud privato per le aziende Fortune 500. Attualmente, le principali distribuzioni open source Linux di OpenStack sono:

  • Ubuntu OpenStack
  • Red Hat OpenShift & Red Hat OpenStack
  • SUSE Cloud 7 (MicroOS)
  • HP Helion OpenStack
  • Oracle OpenStack
  • IBM Cloud Manager con OpenStack

Il vantaggio dell’adozione del data center aziendale per le società di sviluppo software e hardware nell’IT si basa sul fatto che le aziende con le maggiori operazioni aziendali hanno anche la spesa di bilancio più elevata per l’acquisto di servizi cloud. Oltre alle grandi istituzioni governative e di istruzione, i budget IT aziendali di Fortune 500 rappresentano i contratti più redditizi per hardware IT, società di sviluppo software, & fornitori di servizi cloud. Le aziende di integratori si sono espanse nell’ecosistema OpenStack, rilasciando il codice del software in canoni di abbonamento o tariffe di utilizzo con licenza che aggiungono opzioni più complesse per le distribuzioni dei data center aziendali, ad esempio: società di web hosting mirate alle installazioni di OpenStack con un sistema operativo Linux e un motore di orchestrazione dei container. Le società di integrazione forniscono consulenza, contratti, sviluppo di software o servizi di outsourcing DevOps alle aziende Fortune 500 come fornitori di soluzioni di outsourcing. Tata Communications ha recentemente annunciato una piattaforma Container-as-a-Service (CaaS) basata su IZO ™ Private Cloud che verrà utilizzata per supportare i servizi IT nelle organizzazioni aziendali. Questi servizi cloud privati ​​competono con le opzioni cloud pubbliche per le organizzazioni IT con diversi livelli di sinergia & costo dell’investimento per organizzazioni complesse che necessitano di strumenti di gestione dei team distribuiti per la produzione di software CI / CD che possono includere migliaia di prodotti o milioni di domini ospitati.

Ubuntu OpenStack: 55% della quota di mercato rispetto alle distribuzioni Red Hat OpenShift e SUSE Cloud 7

Integrazione di CI / CD con Docker:

Le metodologie di integrazione continua (CI) e consegna continua (CD) sono tratti chiave di una moderna pratica di sviluppo software. Docker Enterprise Edition (Docker EE) può essere un catalizzatore per questa mentalità DevOps, integrandosi con gli strumenti preferiti e le pratiche esistenti per migliorare la qualità e la velocità con cui l’innovazione viene fornita.

Ulteriori informazioni su Docker & Gitlab CI / CD.

Tata Communications: Containers-as-a-Service (CaaS) nelle società di outsourcing IT

La piattaforma Tata Communications Container-as-a-Service (CaaS) consente agli amministratori di sistemi di bilanciare l’agilità di gestione dei progetti mediante l’uso degli strumenti da riga di comando DevOps. La piattaforma Tata CaaS contiene tutti gli abbonamenti software richiesti & dipendenze manuali per gli script di microservizi da eseguire nella virtualizzazione containerizzata. La piattaforma Tata CaaS include un registro sicuro delle immagini per il provisioning dell’istantanea dell’immagine del disco del server Web dell’hardware in cluster elastici. La suite software include l’accesso basato sui ruoli su cluster verticali in esecuzione in parallelo per gli sviluppatori Agile multi-team con molti prodotti supportati per esercitarsi con il controllo delle versioni CI / CD e il test sandbox. La sicurezza del contenitore è gestita attraverso le autorizzazioni di accesso dell’utente su ciascun ambiente individualmente per il controllo del cloud privato. Ulteriori informazioni sulla piattaforma Tata Communications Container-as-a-Service (CaaS).

Tata Communications: Containers-as-a-Service (CaaS) nelle società di outsourcing IT

Foundation Cloud Build & BootStack:

Canonical progetterà, realizzerà e gestirà un cloud OpenStack di produzione nella tua sede a partire da $ 15 per server al giorno. Noi’Su richiesta, addestreremo e trasferiremo il controllo sulla tua squadra. Questo è il modo consigliato per arrivare rapidamente alla produzione, consentendoti di aumentare i carichi di lavoro in modo efficiente e concentrarti sul consumo del cloud e non sull’infrastruttura … Usa Canonical’s evoca per distribuire un OpenStack multi-nodo. Con i contenitori LXD, tutto si adatta al tuo laptop, in VMware o persino in un cloud pubblico. Ideale per utenti principianti o sviluppatori che desiderano studiare i componenti di OpenStack in azione. Usalo con MAAS (‘Metal as a Service’) per distribuire su molti server e ridimensionarlo su molti rack.

Ulteriori informazioni su Ubuntu OpenStack.

Con l’hosting di container, le aziende possono scegliere un piano Kubernetes presso un importante host cloud come AWS, GCP o Microsoft Azure anziché installare una rete OpenStack su AWS EC2 in modo indipendente o in un data center di cloud privato. Il vantaggio principale delle principali distribuzioni Linux basate su OpenStack (SUSE, Red Hat, & Ubuntu) è che la sicurezza della piattaforma è testata in anticipo dagli esperti e i pacchetti offrono una facile implementazione come soluzione su vasta scala, con supporto clienti, manuali di formazione, pannelli di amministrazione e utility di monitoraggio della rete inclusi. Le installazioni cloud di OpenStack consentono di designare un server come host che controlla le reti del cluster utilizzando partizioni contenitore virtualizzate. La principale alternativa a questo è il cloud privato con OpenStack & Kubernetes implementato per le operazioni del data center. Questi metodi sono molto diffusi nell’hosting Web per l’esecuzione di piattaforme VPS e piani CentOS condivisi sullo stesso hardware del data center o in più posizioni di data center a livello internazionale. Le principali alternative a OpenStack, Kubernetes, & Docker come soluzioni open source sono Mesosphere DC / OS, CoreOS Tectonic, & CloudStack. Il vantaggio principale di queste piattaforme è che consentono una migliore allocazione delle risorse hardware del data center nella produzione attraverso la virtualizzazione dei container, oltre a supportare le implementazioni di server Web su larga scala con codice personalizzato e requisiti di estensione del linguaggio di programmazione da cui dipendono le app web / mobile per operare Funzionalità SaaS per il pubblico. Apache Hadoop offre strumenti per la prossima generazione di app basate su flussi di dati, ad esempio per potenziare l’analisi degli utenti di Amazon.com o le reti di auto a guida autonoma.

Piattaforma Tata Communications Containers-as-a-Service (CaaS):

IZO ™ Private Cloud:

Integra, gestisci e controlla i tuoi ambienti IT distribuiti utilizzando un’unica piattaforma di orchestrazione. La nostra piattaforma aperta e flessibile offre una scelta di hypervisor, sistemi operativi e storage. Le nostre architetture di sicurezza integrate dedicate o virtuali sono configurabili mediante l’integrazione Roll-Based Access Control (RBAC) e Lightweight Directory Access Protocol (LDAP).

Ulteriori informazioni su Tata Communications.

Per saperne di più su OpenStack, considera l’ebook di Mirantis: "OpenStack: The Path to Cloud" (2017). Altrimenti, VMware ha annunciato alcuni importanti annunci questa settimana su come lavorare in collaborazione con IBM sulla propria piattaforma di servizi cloud, nonché con installazioni vSphere ospitate in remoto su AWS per soluzioni aziendali su larga scala. Anche di tendenza "Big Data" la novità della piattaforma è Apache HiveMall, che consente ai programmatori di creare app di Machine Learning con database SQL. JFrog ha pubblicato una demo su come i programmatori utilizzano C e C ++ con Jenkins, Conan e JFrog Artifactory per eseguire il provisioning di server Web per il supporto di app Web / mobile complesse in ambienti di hosting. Brigade ha rilasciato una nuova app di script per eventi per Kubernetes.

Piattaforma Tata Communications Containers-as-a-Service (CaaS):

Apache Hadoop:

Il progetto Apache ™ Hadoop® sviluppa software open source per elaborazione distribuita affidabile, scalabile. La libreria software Apache Hadoop è un framework che consente l’elaborazione distribuita di grandi set di dati tra cluster di computer utilizzando semplici modelli di programmazione. È progettato per scalare da singoli server a migliaia di macchine, ognuna delle quali offre computazione e archiviazione locali. Anziché fare affidamento sull’hardware per offrire un’alta disponibilità, la libreria stessa è progettata per rilevare e gestire i guasti a livello dell’applicazione, offrendo così un servizio a disponibilità elevata in cima a un cluster di computer, ognuno dei quali può essere soggetto a guasti.

Ulteriori informazioni su Apache Hadoop.

Microsoft ha annunciato il supporto dell’API per gli sviluppatori affinché utilizzino il loro servizio di visione personalizzata, Face API e ricerca di entità Bing nella creazione di applicazioni web / mobili. Secondo ZDnet:

"Queste API e servizi fanno tutti parte dei 25 servizi cognitivi su cui Microsoft sta lavorando. Lo scorso maggio, i funzionari Microsoft hanno dichiarato che 568.000 sviluppatori stavano usando i suoi servizi cognitivi per aggiungere intelligenza artificiale alle proprie app e servizi. Questa settimana, i funzionari hanno dichiarato che oltre un milione di sviluppatori si sono registrati e hanno utilizzato i Servizi cognitivi di Microsoft."

CMSwire scrive che l’80% delle aziende sta investendo nell’intelligenza artificiale e che quest’area dell’IT vedrà una crescita esponenziale nei prossimi 10-20 anni. In primo luogo, vi è l’enorme necessità di elaborazione AI / ML / DL in reti di veicoli autonomi e auto-guidanti, che saranno gestite su scala continentale da banche server render-AI, host web cloud, & Maggiori IT. In secondo luogo, lo stesso hardware può essere utilizzato in Bitcoin, Blockchain e mining di valuta virtuale, nonché nei giochi & App VR / AR, ad esempio GPU & TPU di apprendimento automatico. Google, AWS e IBM offrono già agli sviluppatori l’accesso ai server TensorFlow sul modello di web hosting, che può essere integrato in app e servizi aziendali tramite API e sviluppo di software personalizzato. L’utilizzo di dispositivi mobili e tablet cambia anche ciò che i programmatori sono in grado di fare con questi strumenti in modo creativo o dirompente. Supremazia quantistica, stampa in metallo 3-D, & La ricerca sul bosone di Higgs è oggi un esempio delle applicazioni più avanzate che utilizzano server AI / ML / DL nei super-cluster.

Apache Hadoop:

"Big Data" & AI / Ml / DL:

Tornando indietro all’acquisizione di Kaggle; la terza parte dello sgabello della strategia di Google si basa sulla preparazione di una comunità di data scientist ed esperti di machine learning (futuro e presente) che sono abituati e a proprio agio all’interno dell’ecosistema di machine learning di Google. Che si tratti dello straordinario supporto fornito da Google al progetto Tensorflow (che di recente ha incorporato la libreria di apprendimento profondo Keras) o dall’istruzione gratuita sotto forma di corsi congiunti sull’apprendimento automatico e l’apprendimento profondo con Udacity o ora l’acquisizione di mezzo milione di appassionati di apprendimento automatico attraverso Kaggle, queste mosse assicurano che la cassetta degli attrezzi dei professionisti sarà basata sugli standard e sulla tecnologia di Google. Il primo ordine di attività dopo l’acquisizione sembra spostare i kernel di Kaggle "una combinazione di ambiente, input, codice e output" su Google Cloud.

Ulteriori informazioni sull’acquisizione Kaggle di Google.

Chiunque desideri saperne di più sulla scienza dei dati e l’apprendimento automatico può leggere:

  • Corso di apprendimento automatico con API TensorFlow (2018)
  • Classifica ‘Introductions to Data Science’ (2017)
  • I migliori corsi di data science su Internet, classificati (2017)

Ci sono un gran numero di eccellenti risorse disponibili online che possono indurre i programmatori esperti a iniziare rapidamente con TensorFlow usando una lingua che già conoscono tecnicamente. La ricerca sulla scienza dei dati di Kaggle è molto rispettata a livello accademico & professionalmente in tutto il mondo, con strumenti integrati di assunzione e assunzione per specialisti.

Microsoft & il progetto Open Compute: nuovi standard per il firmware di archiviazione SSD

Microsoft e il progetto Open Compute: nuovi standard per il firmware di archiviazione SSD

Progetto Denali:

Il progetto Denali è una standardizzazione ed evoluzione di Open Channel che definisce i ruoli di SSD rispetto a quelli dell’host in un’interfaccia standard. La gestione dei supporti, la correzione degli errori, la mappatura dei blocchi danneggiati e altre funzionalità specifiche della generazione flash rimangono sul dispositivo mentre l’host riceve scritture casuali, trasmette flussi di scritture sequenziali, mantiene la mappa degli indirizzi ed esegue la garbage collection. Denali consente il supporto di FPGA (array di gate programmabili sul campo) o microcontrollori sul lato host.

Ulteriori informazioni sul progetto Open Compute.

Progetto Open Compute (OCP): Progetto Denali, Progetto Cerberus, & Progetto Olympus

Il progetto OpenBMC & Linux Foundation ha continuato a lavorare per stabilire gli standard del settore per il firmware BMC (Openboard Baseboard Management Controller). Microsoft ha annunciato Project Denali per la standardizzazione delle interfacce del firmware SSD e la donazione di Project Cerberus, un microcontrollore crittografico, all’Open Compute Project (OCP) per un ulteriore sviluppo collaborativo. Secondo ZDnet:

"I funzionari Microsoft lo scorso anno hanno descritto Cerberus come la prossima fase del Progetto Olympus, la progettazione del suo server di datacenter che la società ha contribuito all’OCP … Microsoft è entrata a far parte dell’Open Compute Project (OCP) nel 2014 ed è membro fondatore e collaboratore del progetto Switch Abstraction Interface (SAI) dell’organizzazione. L’OCP pubblica progetti hardware aperti destinati ad essere utilizzati per costruire datacenter in modo relativamente economico. L’OCP ha già rilasciato le specifiche per schede madri, chipset, cavi e prese, connettori e reti e switch aperti."

I data center possono continuare a monitorare gli sviluppi dell’Open Compute Project (OCP) per tenere traccia delle modifiche degli standard nei server Web e nelle apparecchiature di rete. Gli sviluppatori di software dovranno monitorare queste modifiche per supportare gli standard di settore nelle applicazioni. Archiviazione SSD & la crittografia dei dati rimane due dei settori più rapidamente innovativi dell’hosting web cloud.

Jeffrey Wilson Administrator
Sorry! The Author has not filled his profile.
follow me