KONTAUTO - POWIADOMIENIA SMS-em


RODZAJE SMS-ów

  • SMS PRO bez polskich znaków:
    -do 160 znaków = 2 punkty
    -do 306 znaków = 4 punkty
    -do 320 znaków = 6 punktów

  • SMS PRO z polskimi znakami:
    -do 70 znaków = 2 punkty
    -do 134 znaków = 4 punkty
    -do 201 znaków = 6 punktów
    -do 268 znaków = 8 punktów
    -do 320 znaków = 10 punktów

  • SMS PRO - SMS z podpisem.
    Jako nadawca SMS-a widoczny jest u klienta wybrany przez Państwa podpis z listy podpisów (np. BADANIE, AUTO, SKP). Można zamówić (poprzez Portal Klienta) swój indywidualny podpis (do 11 znaków alfanumerycznych, bez polskich znaków, podpisem nie może też być numer telefonu).
    Zamówienie i rejestracja indywidualnego podpisu jest płatna jednorazowo w wysokości 20 zł netto.


  • Przykłady SMS-ów:

    Przypominamy o badaniu technicznym pojazdu #NRREJESTR#. Zapraszamy do SKP YYYY pon-pt w godz. 7-19, sob. 7-14, Adres SKP, telefon

    Zapraszamy na przypadajace w dniu #TERMIN# badanie techn. pojazdu #MARKA# #NRREJESTR#. Pon-pt 7-19, sob 7-14, Adres SKP, telefon

    Dnia #TERMIN# mija termin badania technicznego pojazdu #NRREJESTR#. Zapraszamy do SKP XXX, Adres SKP, telefon


  • UWAGA ! W miejscu znaków #NRREJESTR#, #MARKA#, #TERMIN# przy automatycznej wysyłce podstawiane są dane klientów z bazy.



Historia informatyki: Claude E. Shannon

Za ojca teorii informacji uważa się Claude’a E. Shannona, który po raz pierwszy użył tego terminu w 1945 roku w swojej pracy zatytułowanej A Mathematical Theory of Cryptography. Natomiast w 1948 roku w kolejnej pracy A Mathematical Theory of Communication przedstawił najważniejsze zagadnienia związane z tą dziedziną nauki.

Shannon sformuował pojęcie informacji, które jest ściśle związane z entropią. W teorii informacji istnieją 2 główne pojęcia:

- Bit: najmniejsza jednostka informacji potrzebna do zakodowania, które z dwóch możliwych zdarzeń zaszło
- Entropia: najmniejsza średnia ilość informacji potrzebna do zakodowania faktu zajścia zdarzenia ze zbioru zdarzeń o danych prawdopodobieństwach.

W uproszczeniu można więc powiedzieć, że entropia to brakująca informacja, która daje się mierzyć prawdopodobieństwem zajścia pewnego wydarzenia - im wydarzenie jest bardziej przewidywalne, tym mniej zawiera informacji.

Shannon jako pierwszy zastosował algebrę Boole'a do realizacji bramek logicznych z zastosowaniem przekaźników. W roku 1948, zajmując się zagadnieniem przepustowości linii telefonicznych, opracował wiele ważnych do dziś formuł matematycznych (m. in. podstawowe twierdzenie Shannona dla kanałów bezszumowych).