Skip to main content

MVC - What a view should never contain( part 1)

Part 2
Suntem intr-o aplicatie MVC. Un model poate sa fie folosit de 1 sau mai multe viewuri.
Intrebarea de unde a pornit totul este Ce ar trebuii sa contina un view?
Daca ne luam dupa carte: Un View trebuie sa contina codul prin intermediul caruia se genereaza interfara grafica asteptata. Viewul se ocupa cu partea de render la date pentru a afisa modelul corespunzator.
In acest caz ce este un Model? Raspunsul scurt si sec pe care il primesc mereu este: o clasa care contine datele ce trebuie afisate in view.
Citisem anul trecut ca un model poate sa fie reprezentat de un web service, de un repository sau de catre un alt bussines layer. Aceasta afirmatie este falsa. Da sursa datelor poate sa fie un web-service, un repository sau un bussines layer, dar datele care o sa fie afisate tot ca o colectie de la 1 la n de de obiecte pe care le primim. Indifierent ca este o colectie de stringuri, o clasa, sau un singur string. Aceste date pot sa fie modelate ca si o clasa.
Daca ne intoarcem la prima afirmatie( modelul este o clasa) - putem sa schimbam raspunsul si sa spunem ca modelul este reprezentat de o colectie de date. In lumea ASP.NET MVC aceasta va fi mereu o clasa( da, chiar si un string este de fapt o clasa in .NET).
Si acuma pot sa pun intrebarea de unde a pornit totul.
Ce ar trebuii sa contina un View?
Doar codul prin intermediul caruia se face render la UI.
Dar daca trebuie sa formatam un element din model, aceast cod unde trebuie sa apara? In controler cand pregateste modelul sau in view. Ati spune ca depinde? Daca formatam un datetime atunci acest lucru s-ar putea face in view sau chiar in template. Daca formatam un obiect mai complex ar trebuii sa fie in controler. In al doilea caz avem o problema cu modelul. Modelul nu este in formatul de care avem nevoie, iar daca incercam sa refolosim un alt model, atunci mai bine ne facem un nou model cu datele de care avem nevoie.
Nu este nimic gresit sa avem cate un model pentru fiecare view. Este gresit sa avem un singur model la 20 de view-uri, iar modelul sa contina date care sa nu fie folosite de toate viewurile sau viewurile sa fie obligat sa faca procesare datelor pentru a putea afisa datele in formatul dorit.
Dar daca avem nevoie sa afisam date din model apeland un web-service. Niciodata sa nu puneti acest apel in view. In unele cazuri poate apelul sa fie facut din Java Script, dar niciodata din view. Genul acesta de logica nu are ce cauta in view.
Totul a pornit in momentul in care am vazut intr-un view un apel spre un web-service facut din C#.
Part 2

Comments

  1. Sper sa nu te deranjeze linkul care explica asta:
    http://msprogrammer.serviciipeweb.ro/2010/03/29/asp-net-mvc-orm-and-viewmodels/
    ( in engleza)

    ReplyDelete
  2. Ai dreptate, din pacate sunt diverse situatii mai complexe unde nu e asa usor de decis: ideal, un view ar trebui sa fie cat mai dummy, si in primul rand sa nu contina business logic.
    Lucrurile se complica cand suntem tentati sa implementam o parte din validare in JavaScript, in view:
    - putem considera acele validari din view ca "business rules" ?
    - cum le testam?
    - putem vorbi de cod duplicat cand aceleasi validari le implementam si in alt layer (in domain model de ex.), asa cum ar trebui?
    - cat de simplu e sa generam validari (netriviale) in JS, pornind de la metadate/atribute din clasele din model?

    Ca sa fie totul si mai complicat, la ora actuala din ce in ce mai des auzim de framework-uri MVC pentru JavaScript, care pleaca de la modelul in care server-ul doar produce un model de baza, returnat ca un JSON sau ceva similar catre codul JS ce ruleaza in browser, care apoi se apuca si formateaza obiectele JS, folosind un templating engine.. Practic o parte din codul care pana acum rula pe server, se muta in browser..

    Oricum, baza e ca fiecare componenta (M, V, C) sa aiba o responsabilitate clar definita, sa fie usor de intretinut si restul principiilor "SOLID" de care se tot povesteste mai nou. Odata ce astea s-au inteles, si se lucreaza in stuil TDD cu mar trebui, oricine va evita modele ce produc HTML, cod C# in views ce implementeaza business rules (nu doar formatari triviale), si multe altele.

    Se mai poate povesti mult pe tema asta - multi confunda domain model-ul cu model-ul din MVC (in cazuri mai complexe ar trebui sa fie separate).

    ReplyDelete
  3. Asa cum spunea si Tudor, intr-o aplicatie reala, apar umeori aceste greseli. Din graba, din cauza ca timpul este limitat sau esti presat si mu ai timp sa faci review, te trezesti cu asa ceva. Eu-am ingrozit.
    Cand sunt implicati mai multi programatori, unele fixuri se fac ca sa fie functionale si atat.

    ReplyDelete
  4. Nu sunt neaparat .. greseli - omu' cat traieste tot invata.. :) Oricum web programerii pe tehnologii Microsoft au progresat mult de pe vremea ASP "clasic" prin anii '90 - 2000, cand mai tot codul era scris direct in pagina (view) - foarte putini stiau sa creeze niste componente COM in care sa separe business logic-ul..

    ReplyDelete
  5. Tudor - era destul de greu sa produci componente COM bune pe vremea aceea. Si totul trebuia pasat de colo colo...
    Mai mult, un designer era destul de incurcat de COM-ul ala...

    ReplyDelete
  6. Din greseli invatam. De asta am si scris postul asta. O sa incerc azi sa scriu un nou post si cu niste code sample.

    ReplyDelete
  7. Intr-adevar, COM nu era usor - un developer care lucra toata ziua in VBScript+ASP trebuia sa invete si VB6, Delphi sau C++ si sa inteleaga cu adevarat filozofia COM/DCOM, MTS si alte cele, partea de deployment nu era triviala, dar si joburile bine platite erau in zona aia :) ..

    ReplyDelete
  8. Legat de model, e oarecum de inteles ca au lasat lucrurile vagi. Poti sa pui un entity model sau poate pui un view model. View model sau Post model (mai rar denumit asa) este o clasa ce contine fix proprietatile necesare pentru acel view.

    ReplyDelete

Post a Comment

Popular posts from this blog

Windows Docker Containers can make WIN32 API calls, use COM and ASP.NET WebForms

After the last post , I received two interesting questions related to Docker and Windows. People were interested if we do Win32 API calls from a Docker container and if there is support for COM. WIN32 Support To test calls to WIN32 API, let’s try to populate SYSTEM_INFO class. [StructLayout(LayoutKind.Sequential)] public struct SYSTEM_INFO { public uint dwOemId; public uint dwPageSize; public uint lpMinimumApplicationAddress; public uint lpMaximumApplicationAddress; public uint dwActiveProcessorMask; public uint dwNumberOfProcessors; public uint dwProcessorType; public uint dwAllocationGranularity; public uint dwProcessorLevel; public uint dwProcessorRevision; } ... [DllImport("kernel32")] static extern void GetSystemInfo(ref SYSTEM_INFO pSI); ... SYSTEM_INFO pSI = new SYSTEM_INFO(

Azure AD and AWS Cognito side-by-side

In the last few weeks, I was involved in multiple opportunities on Microsoft Azure and Amazon, where we had to analyse AWS Cognito, Azure AD and other solutions that are available on the market. I decided to consolidate in one post all features and differences that I identified for both of them that we should need to take into account. Take into account that Azure AD is an identity and access management services well integrated with Microsoft stack. In comparison, AWS Cognito is just a user sign-up, sign-in and access control and nothing more. The focus is not on the main features, is more on small things that can make a difference when you want to decide where we want to store and manage our users.  This information might be useful in the future when we need to decide where we want to keep and manage our users.  Feature Azure AD (B2C, B2C) AWS Cognito Access token lifetime Default 1h – the value is configurable 1h – cannot be modified

What to do when you hit the throughput limits of Azure Storage (Blobs)

In this post we will talk about how we can detect when we hit a throughput limit of Azure Storage and what we can do in that moment. Context If we take a look on Scalability Targets of Azure Storage ( https://azure.microsoft.com/en-us/documentation/articles/storage-scalability-targets/ ) we will observe that the limits are prety high. But, based on our business logic we can end up at this limits. If you create a system that is hitted by a high number of device, you can hit easily the total number of requests rate that can be done on a Storage Account. This limits on Azure is 20.000 IOPS (entities or messages per second) where (and this is very important) the size of the request is 1KB. Normally, if you make a load tests where 20.000 clients will hit different blobs storages from the same Azure Storage Account, this limits can be reached. How we can detect this problem? From client, we can detect that this limits was reached based on the HTTP error code that is returned by HTTP