Tekoäly ja sen eri sovellukset

Käytetäänkö tekoälylle syötettyjä kysymyksiä ja tietoja myös pohjana seuraaville kielimalleille?

Aiheesta uutisoineen Dark Readingin mukaan pääasiassa käyttäjät halusivat tiivistelmän aineistosta tai kirjoittaa siihen liittyvän blogipostauksen tai muuta suhteellisen helppoa. 8,5 prosentissa analysoiduista tiedoista oli kuitenkin mukana arkaluontoisia tietoja.

Pelkona on, että sovellusten perustana olevat kielimallit käyttävät kaikki käyttäjien syöttämät arkaluontoiset ja salassa pidettävätkin tiedot seuraavien kielimalliensa koulutusmateriaaliksi. Joku voisi jopa onnistua tulevaisuudessa saamaan syötetyt tiedot osuvilla prompteilla tietoonsa.

Sitä vaan, että jokin tässä kappaleessa haisee aikaa vahvasti…

Juu, ihan varmasti on tyhjästä vedetty toimintaan noilla rahoilla parin kuukauden kehityksellä.

1 tykkäys

Deepseek on enemmän tai vähemmän julkaistu ilmaiseksi open sourcena. En ole asiaa sen enempää tutkinut, mutta näin luin jostain. Artikkelissa ei taidettu mainita, mutta väittävät myös, että suoriutuu tehtävistä selkeästi vähemmällä prosessointiteholla kuin kilpailijat.

1 tykkäys

Jutussa sanotaan, että " Itsensä kloonaaminen ilman ihmisen avustusta on kriittinen askel, jonka myötä tekoäly kykenee päihittämään ihmisen älykkyydessä." Sillä varmaan tarkoitetaan jotain samaa kuin jos sanottaisiin, että “rakettimoottorin keksiminen on kriittinen askel, jonka myötä ihmiskunta voi muuttaa johonkin toiseen aurinkokuntaan”.

Kiinalaiset menossa johtoon tekoäly rintamalla?

Deepseek on siis ai joka tekee mustasta valkoista eli sensuroi.

Varmaan muissakin löytyy sensurointia (aseiden tekemisohjeita jne) mutta Deepseek näemmä sensuroi Kiinakriittisen tekstin.

1 tykkäys

Itse testannut lähinnä teknisillä kysymyksillä eri AI-sovelluksia.
Samalla promptauksella, esimerkiksi ChatGPT, Gemini ja Mistral, olen todennut Mistralin vastaavan parhaiten.
LLM tässä ehkä ei ole se kaikkein isoin, mutta näistä kolmesta ainoa joka vastannut ja oikein.
Vuosien saatossa on kertynyt melkoinen kirjasto eilaisia Excel laskentapohjia ja niissä kaavojen optimoinnissa ChatGPT on mainio siinä puuhassa.
Muutkin selviytyvät toki, mutta tykkään ChatGPT:n tavasta selittää laskennan kulun, mikä toisten tekemissä pohjissa on joskus hankala päästä tekijän sielunmaisemaan.

2 tykkäystä

On yllätävää kuin suuren huomion tällaiset kiinalaiset tekoäly keksinnöt länsimaissa saa. Tuntuu siltä kuin täällä ei yhtään tajuta sitä että Kiinan perustuslaki rajoittaa sananvapautta yleisen järjestyksen ja turvallisuuden varjolla. Suomalainen mediakin kirjoittaa Kiinasta kuten siellä olisi samat säännöt kuin meillä täällä Euroopassa. Niin ei ole. Tämä kiinalainen “tekoäly” on kirjaimellisesti aivopesty tuote, joka noudattaa isäntävaltionsa lakeja ja asetuksia.

Niin, kyllähän sillä kummasti kansainvälistä huomiota saa kun julkaisemalla jonkin “halvan” (me ei tiedetä totuutta tämän takana) sovelluksen pyyhitään toisen ison pörssifirman osakkeesta päivässä pois lähes 600 miljardia euroa.

1 tykkäys

Pieni 600 miljardin korjausliike. Nvidian arvo on noussut viimeisen 5 vuoden aikana n 2000%

Tämä kiinalainen teos louhii maata kaikkien länsimaisten tekoälyratkaisujen alta, jos se on niin tehokas kuin väitetään. Aivopesu ja valvonta sekä tekoäly kuuluvat samaan lauseeseen, oli kyse sitten kiinalaisesta tai länsimaalaisesta tavarasta. Ero on nyansseissa.

2 tykkäystä

Toisaalta Kiina on miljardien ihmisten kansakunta ja ei kaikki Kiinasta tuleva ole :poop:. Ajan myötä selviää, sensuroiko Deepseek muutakin kuin Kiinan valtion hallintoa koskevat kysymykset - lähes jokainen tekoälysovellus sensuroi jotain.

2 tykkäystä

Maon punainen palomuuri vuotaa:

3 tykkäystä

Miltä osa-alueilta Deepseek eroaa ja osin on jopa tehokkaampi kuin Chat GPT:

Elektroniikkalehti:

Näin DeepSeek R1 eroaa GPT-malleista

Viime viikolla tekoälymaailmaa ravisteli merkittävä julkaisu, kun kiinalainen tutkimusryhmä esitteli uuden suurten kielimallien (LLM) innovaation, DeepSeek R1:n. Tämä malli ei ainoastaan kilpaile tunnetuimpien GPT-mallien, kuten OpenAI:n GPT-4:n kanssa, vaan haastaa niitä uusilla lähestymistavoilla, jotka voivat muuttaa tekoälyn kehityksen suuntaa. Uutisissa on ihmetelty sitä, miten DeepSeek R1 on voitu kehittää selvästi pienemmillä rtesursseilla kuin amerikkalaiset tekoälymallit. Mutta miten DeepSeek R1 eroaa esimerkiksi OpenAI:n GPT-malleista?

Tähän iski kyllä “sensuuri” tai faktantarkistus. :wink: Kiinan väkiluku on lähempänä yhtä miljardia kuin kahta ja lievästi laskussa. Muuten kyllä totta, että väkeä piisaa, tosin tällä hetkellä kakkonen Intian jälkeen. Mutta ei nyt liioitella sentään.

Sitten voikin kysyä missä vaiheessa kuullaan jotain tekoälyuutisia Intiasta. Mikä estäis, kysyn vaan.

Ennen kuin innostuu kiinalaisesta AI:sta, kannattaa huomata, että vaikka se olisi avointa lähdekoodia, se kerää kaiken tiedon käyttäjästä Kiinaan, missä valtionhallinnolla on pääsy dataan koska kyseessä on diktatuuri, joka voi kiinalaiset yritykset siihen velvoittaa.

https://chat.deepseek.com/downloads/DeepSeek%20Privacy%20Policy.html

4 tykkäystä
1 tykkäys

Yllättyneet käsi pystyyn, ohessa Hesarin uutinen k.o. aiheesta.

Miksi tehdä itse jos sen voi varastaa.

  • Vanha kiinalainen sananlasku.
3 tykkäystä

No mistä se OpenAI datansa aikanaan hankki? Internetistä ja siitäkin on aika monta haastetta nostettu.

1 tykkäys

Jotenkin unohtuu mikä uutta ja mullistavaa DeepSeek tuonee AI-maailmaan. Odotan itse millaisia malleja ja palveluja yritykset tuovat markkinoille DeepSeek opensource avulla.

DeepSeek uses groundbreaking techniques to speed things up

  1. Speeding Things Up with 8bit floating points
    DeepSeek saves memory, time and money by using FP8 for most calculations, and switching to FP32 for a few key operations in which accuracy is paramount. The benefits of FP8 are clear:
    Memory Efficiency: FP8 dramatically reduces how much memory each GPU needs, letting DeepSeek use fewer GPUs than competitors like OpenAI and Meta.
    Lower Costs: Less memory and fewer GPUs mean much cheaper AI training and deployment.
    Faster Processing: FP8’s simplicity makes calculations faster, reducing it to a quarter speeds up more than 4x.

  2. Speeding Things Up with Multi-Token Predictions
    Most AI models generate responses one word (or token) at a time, which can be slow. DeepSeek R1 breaks this mold with a multi-token prediction system. It predicts several tokens in one step, cutting response times in half.
    The impressive part? These multi-token predictions are about 85–90% accurate, meaning DeepSeek R1 can deliver high-quality answers at double the speed of its competitors.
    When combined with FP8’s efficiency, this makes DeepSeek R1 faster, smarter, and more responsive, which is a game-changer for industries like real-time customer service, search, and AI-powered tools.

  3. Speeding Things Up with Mixture of experts
    The firm also used a technique called “mixture of experts,” which added to the model’s efficiency. While traditional models keep all of their parameters active constantly, DeepSeek’s system uses 671 billion total parameters but only activates 37 billion at once. It’s like having a large team of specialists, but only calling in the experts needed for certain tasks.