Ero sivun ”Ollama” versioiden välillä

Linux.fista
Siirry navigaatioon Siirry hakuun
Ei muokkausyhteenvetoa
Ei muokkausyhteenvetoa
 
(2 välissä olevaa versiota samalta käyttäjältä ei näytetä)
Rivi 17: Rivi 17:
| lähdekoodi    =  
| lähdekoodi    =  
}}
}}
'''Ollama''' on ohjelmisto, joka mahdollistaa suurten kielimallien ([[LLM]]) ajamisen ja hallinnan suoraan omalla koneellasi ilman palvelinta.
'''Ollama''' on avoimen lähdekoodin ohjelmisto, joka on suunniteltu suurten kielimallien ([[LLM]], Large Language Model) ajamiseen suoraan käyttäjän omalla tietokoneella (paikallisesti) ilman erillistä palvelininfrastruktuuria.  


Pilvimallit ovat nyt esikatselussa, joten voit käyttää suurempia malleja nopealla, palvelinkeskustason laitteistolla. Voit jatkaa paikallisten työkalujen käyttöä samalla, kun käytät suurempia malleja, jotka eivät mahdu henkilökohtaiseen tietokoneeseen. Ollaman pilvi ei säilytä tietojasi yksityisyyden ja turvallisuuden takaamiseksi.
Sovellus on saatavilla Linuxille, macOS:lle ja Windowsille. Se tarjoaa helppokäyttöisen komentorivikäyttöliittymän (CLI) ja tausta-ajona toimivan palvelun. Vaikka Ollama toimii suorittimella (CPU), se hyödyntää optimaalisesti GPU-kiihdytystä (erityisesti NVIDIA:n CUDA:a tai AMD:n ROCia.


Sama Ollama-kokemus on nyt saumaton sekä paikallisesti että pilvessä, ja se integroituu jo käyttämiisi työkaluihin. Ollaman pilvimallit toimivat myös Ollaman OpenAI-yhteensopivan rajapinnan kautta.
== Keskeiset hyödyt ==
Ollaman suosio perustuu sen tarjoamiin etuihin verrattuna pilvipohjaisiin ratkaisuihin.
* Yksityisyys ja Turvallisuus: Malli ajetaan ja data käsitellään omalla laitteella, mikä varmistaa paremman tietosuojan, sillä tieto ei siirry ulkopuolisille palvelimille.
* Suorituskyky: Mallien ajaminen paikallisesti voi tarjota paremman suorituskyvyn (matalamman viiveen) kuin pilvipohjaiset järjestelmät.
* Kustomointi: Mahdollistaa omien, räätälöityjen mallien luomisen ja olemassa olevien mallien hienosäädön (adapteripohjainen hienosäätö) Modelfile-tiedoston avulla.
* Integraatio: Tarjoaa helpon API-integraation kehittäjille.


== Tiivistelmä keskeisistä asioista ==
== Tuetut mallit ==
* Sen avulla voit suorittaa avoimen lähdekoodin kielimalleja (kuten Llama 2, Mistral ja Gemma) paikallisesti.
Ollama tukee useita suosittuja avoimen lähdekoodin kielimalleja, joita käyttäjä voi ladata ja ajaa yhdellä komennolla:
* Se parantaa yksityisyyttä ja turvallisuutta, koska mallit ja tietosi pysyvät omalla laitteellasi. Se tarjoaa myös helpon tavan integroida malleja sovelluksiin API:n kautta.
 
''ollama run [mallin nimi]''
 
* Llama 2 ja Llama 3 (Meta)
* Mistral
* Gemma (Google)
* Code Llama
* Phi-2
* Sekä useita muita, pienempiä ja erikoistuneempia malleja.
 
Se parantaa yksityisyyttä ja turvallisuutta, koska mallit ja tietosi pysyvät omalla laitteellasi. Se tarjoaa myös helpon tavan integroida malleja sovelluksiin API:n kautta.
* Se on saatavilla Linuxille, macOS:lle ja Windowsille.
* Se on saatavilla Linuxille, macOS:lle ja Windowsille.
* Sen perusidea on tehdä paikallisten kielimallien käyttö mahdollisimman yksinkertaiseksi niin kehittäjille kuin harrastajillekin.
* Sen perusidea on tehdä paikallisten kielimallien käyttö mahdollisimman yksinkertaiseksi niin kehittäjille kuin harrastajillekin.

Nykyinen versio 10. marraskuuta 2025 kello 18.17

Ollama
Ohjelmoitu Go
Lisenssi MIT
Kotisivu ollama.com

Ollama on avoimen lähdekoodin ohjelmisto, joka on suunniteltu suurten kielimallien (LLM, Large Language Model) ajamiseen suoraan käyttäjän omalla tietokoneella (paikallisesti) ilman erillistä palvelininfrastruktuuria.

Sovellus on saatavilla Linuxille, macOS:lle ja Windowsille. Se tarjoaa helppokäyttöisen komentorivikäyttöliittymän (CLI) ja tausta-ajona toimivan palvelun. Vaikka Ollama toimii suorittimella (CPU), se hyödyntää optimaalisesti GPU-kiihdytystä (erityisesti NVIDIA:n CUDA:a tai AMD:n ROCia.

Keskeiset hyödyt

[muokkaa]

Ollaman suosio perustuu sen tarjoamiin etuihin verrattuna pilvipohjaisiin ratkaisuihin.

  • Yksityisyys ja Turvallisuus: Malli ajetaan ja data käsitellään omalla laitteella, mikä varmistaa paremman tietosuojan, sillä tieto ei siirry ulkopuolisille palvelimille.
  • Suorituskyky: Mallien ajaminen paikallisesti voi tarjota paremman suorituskyvyn (matalamman viiveen) kuin pilvipohjaiset järjestelmät.
  • Kustomointi: Mahdollistaa omien, räätälöityjen mallien luomisen ja olemassa olevien mallien hienosäädön (adapteripohjainen hienosäätö) Modelfile-tiedoston avulla.
  • Integraatio: Tarjoaa helpon API-integraation kehittäjille.

Tuetut mallit

[muokkaa]

Ollama tukee useita suosittuja avoimen lähdekoodin kielimalleja, joita käyttäjä voi ladata ja ajaa yhdellä komennolla:

ollama run [mallin nimi]
  • Llama 2 ja Llama 3 (Meta)
  • Mistral
  • Gemma (Google)
  • Code Llama
  • Phi-2
  • Sekä useita muita, pienempiä ja erikoistuneempia malleja.

Se parantaa yksityisyyttä ja turvallisuutta, koska mallit ja tietosi pysyvät omalla laitteellasi. Se tarjoaa myös helpon tavan integroida malleja sovelluksiin API:n kautta.

  • Se on saatavilla Linuxille, macOS:lle ja Windowsille.
  • Sen perusidea on tehdä paikallisten kielimallien käyttö mahdollisimman yksinkertaiseksi niin kehittäjille kuin harrastajillekin.

Asenna

[muokkaa]

Ollama voidaan asentaa PIP:in kautta useisiin jakeluihin. Voit myös avata komentorivin ja komentaa:

Komennot, jotka alkavat $-merkillä suoritetaan tavallisena käyttäjänä ja komennot, jotka alkavat #-merkillä suoritetaan pääkäyttäjänä. Katso myös su, sudo ja doas.
# pip install ollama


Vedä seuraavaksi pilvimalli:

ollama pull gpt-oss:120b-cloud

Kun malli on käytettävissä paikallisesti, suorita se Pythonilla:

import ollama
response = ollama.chat(model='gpt-oss:120b-cloud', messages=[
  {
    'role': 'user',
    'content': 'Why is the sky blue?',
  },
])
print(response['message']['content'])

Sisään- ja uloskirjautuminen

[muokkaa]

Pilvimallit käyttävät päättelylaskentaa ollama.com ja edellyttävät kirjautumista ollama.com:

ollama signin

Jos haluat pysyä kirjautuneena ulos, suorita seuraava:

ollama signout